Sunteți pe pagina 1din 229

1.

ELEMENTE DE TEORIA
PROBABILITĂŢILOR

1.1. Evenimente
Definiţie 1.1.1. Realizarea practică a unui
ansamblu de condiţii bine precizat poartă numele de
experienţă sau probă.
Definiţie 1.1.2. Prin eveniment vom înţelege
orice rezultat al unei experienţe despre care putem spune
că s-a realizat sau că nu s-a realizat, după efectuarea
experimentului considerat. Evenimentele se pot clasifica
în: evenimente sigure; evenimente imposibile,
evenimente aleatoare.
Definiţie 1.1.3. Evenimentul sigur este
evenimentul care se produce în mod obligatoriu la
efectuarea unei probe şi se notează cu E.
Definiţie 1.1.4. Evenimentul imposibil este
evenimentul care în mod obligatoriu nu se produce la
efectuarea unei probe şi se notează cu φ.
6 Elemente de teoria probabilităţilor şi statistică matematică

Definiţie 1.1.5. Evenimentul aleator este


evenimentul care poate sau nu să se realizeze la
efectuarea unei probe şi se notează prin litere mari A, B,
C, …, sau prin litere mari urmate de indici Ai, Bi,….
Definiţie 1.1.6. Evenimentul contrar
evenimentului A se notează Ā şi este evenimentul ce se
realizează numai atunci când nu se realizează
evenimentul A.
Definiţie 1.1.7. Un eveniment se numeşte:
1) elementar dacă se realizează ca rezultat al
unei singure probe; se notează cu e.
2) compus dacă acesta apare cu două sau mai
multe rezultate ale probei considerate.
Definiţie 1.1.8. Mulţimea tuturor evenimentelor
elementare generate de un experiment aleator se numeşte
spaţiul evenimentelor elementare şi se notează cu E. E
poate fi finit sau infinit.
Observaţie 1.1.9. O analogie între evenimente
şi mulţimi permite o scriere şi în general o exprimare mai
comode ale unor idei şi rezultate legate de conceptul de
Elemente de teoria probabilităţilor 7

eveniment. Astfel, vom înţelege evenimentul sigur ca


mulţime a tuturor evenimentelor elementare, adică:
E = {e1 , e2 ,..., en } şi orice eveniment compus ca o

submulţime a lui E. De asemenea, putem vorbi despre


mulţimea tuturor părţilor lui E pe care o notăm prin P(E),
astfel că pentru un eveniment compus A putem scrie, în
contextul analogiei dintre evenimente şi mulţimi, că
A ⊆ E sau A ∈P (E ) .

Exemplul 1.1.10. Fie un zar, care are cele şase


feţe marcate prin puncte de la 1 la 6. Se aruncă zarul pe o
suprafaţă plană netedă. Dacă notăm cu ei = evenimentul
"apariţia feţei cu i puncte", i =1,6 , atunci spaţiul
evenimentelor elementare ataşat experimentului cu un zar
este dat prin E={e1 , e2 , e3 , e4 , e5 , e6 }.
Evenimentul sigur E este "apariţia feţei cu un
număr de puncte ≤ 6".
Evenimentul imposibil φ este "apariţia feţei cu
7 puncte".

1.2. Relaţii între evenimente


8 Elemente de teoria probabilităţilor şi statistică matematică

Definiţie 1.2.1. Spunem că evenimentul A


implică evenimentul B şi scriem A ⊂ B , dacă realizarea
evenimentului A atrage după sine şi realizarea
evenimentului B.
Observaţie 1.2.2. A ⊂ B şi B ⊂ C rezultă
A ⊂ C - proprietatea de tranzitivitate a relaţiei de
implicare.
Dacă A, B, C sunt evenimente aleatoare asociate
unei experienţe, au loc relaţiile:
i) A ⊂ E, B ⊂ E , C ⊂ E;

ii) A ⊂ A, B ⊂ B, C ⊂ C;

iii) φ ⊂ A, φ ⊂ B, φ ⊂ C ;

Definiţie 1.2.3. Spunem că evenimentele A şi B


sunt echivalente (egale) dacă avem simultan A ⊂ B şi
B⊂ A.
Definiţie 1.2.4. Prin reunirea evenimentelor A şi
B vom înţelege evenimentul notat A ∪ B care se
realizează odată cu realizarea a cel puţin unuia dintre
evenimentele A şi B.
Elemente de teoria probabilităţilor 9

Observaţie 1.2.5. Dacă notăm prin K mulţimea


evenimentelor asociate unui experiment aleator avem:
1. ∀A, B ∈K ⇒ A ∪ B = B ∪ A

(comutativitatea);
2. ∀A, B, C ∈K ⇒ (A ∪ B) ∪ C = A ∪ (B ∪ C)

(asociativitatea);
3. Dacă A, B ∈K şi A ⊂ B ⇒ A ∪ B = B (evident
A ∪ E = E , A ∪ φ = A , E ∪φ = E şi A ∪ A = E ).
Definiţie 1.2.6. Prin intersecţia evenimentelor A
şi B vom înţelege evenimentul notat A ∩ B care se
realizează dacă ambele evenimente se realizează.
Observaţie 1.2.7. Au loc relaţiile următoare:
1. ∀A, B ∈K ⇒ A ∩ B = B ∩ A

(comutativitatea)
2. ∀A, B, C ∈K ⇒ (A ∩ B) ∩ C = A ∩ (B ∩ C)

(asociativitatea)
3. Dacă A, B ∈K şi A ⊂ B atunci A ∩ B = A
(evident A ∩ E = A , A ∩ φ = φ, E ∩φ = φ şi A ∩ A = A ).
4. ∀A ∈K ⇒A ∩A =φ.
10 Elemente de teoria probabilităţilor şi statistică matematică

Definiţie 1.2.8. Spunem că evenimentele A şi B


sunt incompatibile dacă A ∩B = φ , adică realizarea lor
simultană este imposibilă, şi spunem că sunt compatibile
dacă A ∩ B ≠ φ , adică este posibilă realizarea lor
simultană. Evenimentele A şi B sunt contrare unul altuia
dacă A ∪ B = E şi A ∩B = φ , adică realizarea unuia
constă din nerealizarea celuilalt.
Definiţie 1.2.9. Se numeşte diferenţa
evenimentelor A şi B, evenimentul notat A-B care se
realizează atunci când se realizează evenimentul A şi nu
se realizează evenimentul B.
Observaţie 1.2.10. Evident avem
A − B = A ∩B şi E − A = A .
Au loc relaţiile lui De Morgan: A ∪ B = A ∩ B
şi A ∩B = A ∪B şi respectiv generalizările

i∈
I
Ai =A i i∈
I
; 
i∈
I
Ai =A ii∈
I
.

Teorema 1.2.11. Dacă evenimentele A, B, C, D


∈ K, atunci sunt adevărate următoarele afirmaţii:
i) A – B = A – (A ∩ B)
ii) A – B = (A ∪ B) – B
Elemente de teoria probabilităţilor 11

iii) A = (A – B) ∪ (A ∩ B)
iv) (A – B) ∩ (B – A) = φ
v) A ∪ B = A ∪ [B - (A ∩ B)]
vi) A ∩ (B – C) = (A ∩ B) - (A ∩ C)
vii) (A – B) ∩ (C – D) = (A ∩ C) – (B ∪
D)
Definiţie 1.2.12. Evenimentele A şi B sunt
dependente dacă realizarea unuia depinde de realizarea
celuilalt şi sunt independente dacă realizarea unuia nu
depinde de realizarea celuilalt.
O mulţime de evenimente sunt independente în
totalitatea lor dacă sunt independente câte două, câte trei
etc.
Pentru evenimentele independente în totalitatea
lor vom folosi şi denumirea de evenimente independente.
Dacă e1 , e 2 ..., e n sunt evenimentele
elementare corespunzătoare unei experienţe atunci

mulţimea E = { e1 , e 2 ,...e n } poartă numele de eveniment


total (este echivalentă cu evenimentul sigur).
12 Elemente de teoria probabilităţilor şi statistică matematică

1.3. Câmp de evenimente


Definiţie 1.3.1. O mulţime K de evenimente
formează un câmp de evenimente dacă satisface
axiomele:
i) ∀A ∈K ⇒A ∈K

ii) ∀A, B ∈K ⇒A ∪ B ∈K şi A ∩ B ∈ K .
Observaţie 1.3.2.
1. Notăm câmpul de evenimente [E,K].
2. Evident φ∈K şi E ∈ K .
3. Dacă E = { e1 , e 2 ,...e n } atunci K ⊂ P(E ) .
4. Dacă într-o probă mulţimea evenimentelor
este infinită atunci câmpul de evenimente corespunzător
[E,K] are proprietatea:
∞ ∞
∀A i ∈K , i =1, 2... ⇒ A i ∈K şi A i ∈K.
i =1 i=1

Definiţie 1.3.3. Într-un câmp de evenimente


[E,K], evenimentele A i ∈ K , i =1, n , formează un
sistem complet de evenimente (sau o partiţie a câmpului)
dacă:
Elemente de teoria probabilităţilor 13
n

i) A i =E
i =1

ii) Ai ∩ A j = φ ∀i ≠ j, i, j =1, n

Observaţie 1.3.4. Evenimentele elementare e i ,


i =1, n , corespunzătoare unei probe formează un sistem
complet de evenimente care se mai numeşte sistem
complet elementar.
Propoziţie 1.3.5. Dacă E = {e1 , e2 ,..., en }

atunci câmpul de evenimente corespunzător conţine 2n


evenimente.
Demonstraţie:
Pentru un experiment de n rezultate elementare
şi prin urmare pentru un eveniment sigur E compus din n
evenimente elementare, vom avea diverse evenimente
compuse din acestea după cum urmează:
– evenimente compuse din câte zero

evenimente elementare = Cn
0

– evenimente compuse din câte un eveniment

elementar = Cn1
14 Elemente de teoria probabilităţilor şi statistică matematică

– evenimente compuse din câte două

evenimente elementare = Cn2


– ----------------
– evenimente compuse din câte k evenimente

elementare = Cn
k

– evenimente compuse din câte n evenimente

elementare = Cnn
şi prin urmare, numărul total de evenimente ale lui K este
egal cu
C n0 + C n1 + ... + C nk + ... + C nn = 2 n

1.4. Câmp de probabilitate


Definiţia axiomatică a probabilităţii 1.4.1. Fie
[E,K] un câmp de evenimente. Se numeşte probabilitate
pe mulţimea K o funcţie P : K → R care satisface
axiomele:
i) P( A ) ≥ 0∀A ∈K

ii) P(E)=1
Elemente de teoria probabilităţilor 15

iii) P( A ∪B) = P( A) + P ( B), A, B ∈K ,

şi A ∩B = φ .
Definiţie 1.4.2. Se numeşte câmp de
probabilitate tripletul {E, K, P} unde E este evenimentul
total, K=P(E) iar P o probabilitate pe K.
Observaţie 1.4.3. În cazul în care câmpul de
evenimente [E,K] este infinit (K este infinită)
probabilitatea P definită pe K satisface axiomele:
i) P( A) ≥ 0, ∀A ∈K

ii) P(E)=1
 
iii)  =∑P( A i )
 A i 
P dacă
 i∈I  i∈I

A i ∩A j = φ, i ≠ j, i, j ∈I, A i ∈ K , I-o mulţime de


indici cel mult numărabilă.
Propoziţie 1.4.4. Au loc relaţiile:
1. P( φ) = 0
2. ( )
P A =1 −P ( A )

 n  n
3. P  A i  = ∑ P( A i ) dacă A i ∩ A j = φ,
 i =1  i =1
i ≠ j, i, j =1, n

Demonstraţie:
16 Elemente de teoria probabilităţilor şi statistică matematică

1) Din relaţiile φ ∪ E = E şi φ ∩ E = φ
aplicând axioma iii) din definiţia probabilităţii avem P(E)
= P(φ ∪ E) = P(φ ) + P(E) şi rezultă P(φ ) = 0
2) Din relaţiile A∪A = E şi A ∩A =φ

aplicând axioma iii) din definiţia probabilităţii avem


P ( A ∪A) = P ( A) +P ( A) adică P ( E ) =P ( A) +P ( A)

şi rezultă P ( A) =1 −P ( A)

3) Demonstrăm prin inducţie matematică


Pentru n = 2 P(A1 ∪ A2) = P(A1) + P(A2) relaţia
este adevărată conform axiomei iii) din definiţia
probabilităţii.
Presupunem relaţia adevărată pentru n – 1
evenimente, adică
 n −1  n −1
P
 Ai  = ∑P ( Ai ) şi demonstrăm pentru n
 i =1  i =1
evenimente
Elemente de teoria probabilităţilor 17

 n   n −1    n −1  n −1
P Ai  = P  Ai  ∪ An  = P  Ai  + P ( An ) = ∑ P( Ai ) + P ( An ) =
 i =1   i =1    i =1  i =1

dacă s-a folosit ipoteza de inducţie şi s-a ţinut seama că

 n −1 
  Ai  ∩ An = φ
 i =1 
Definiţia clasică a probabilităţii 1.4.5.
Probabilitatea unui eveniment A este egală cu raportul
dintre numărul evenimentelor egal probabile favorabile
evenimentului A şi numărul total al evenimentelor egal
probabile.
Altă formulare: probabilitatea unui eveniment
este raportul între numărul cazurilor favorabile
evenimentului şi numărul cazurilor posibile.
Observaţie 1.4.6.
1) Conform acestei definiţii nu putem stabili
probabilitatea unui eveniment ce aparţine unui câmp
infinit de evenimente.
2) Definiţia clasică se aplică numai atunci când
evenimentele elementare sunt egal posibile.
18 Elemente de teoria probabilităţilor şi statistică matematică

Exemplul 1.4.7. Considerăm experienţa de


aruncare a unui zar. Evenimentele elementare sunt egal
posibile şi avem 6 cazuri posibile. Notăm cu A
evenimentul "apariţia unei feţe cu număr par de puncte
≤ 6 " numărul cazurilor favorabile evenimentului A este

3 1
3. Deci P(A ) = = .
6 2
Exemplul 1.4.8. Dintr-o urnă cu 15 bile
numerotate de la 1 la 15 se extrage o bilă la întâmplare.
Se consideră evenimentele:
A = obţinerea unui număr prim;
B = obţinerea unui număr par;
C =obţinerea unui număr divizibil prin
3.
Să calculăm probabilităţile acestor evenimente.
Rezolvare:
În această experienţă aleatoare numărul total al
cazurilor posibile este 15.
Elemente de teoria probabilităţilor 19

Pentru A numărul cazurilor favorabile este 6,

6 2
adică {2, 3, 5, 7, 11, 13}, deci P(A ) = = .
15 5
Pentru B numărul cazurilor favorabile este 7,

7
adică {2, 4, 6, 8, 10, 12, 14}, deci P(B) = .
15
Pentru C, numărul cazurilor favorabile este 5,

5 1
adică { 3, 6, 9, 12, 15}, deci P(C) = = .
15 3

1.5. Reguli de calcul cu probabilităţi


P1) Probabilitatea diferenţei: Dacă A, B ∈K şi
A ⊂ B atunci
P(B-A)=P(B)-P(A)
Demonstraţie:
Din relaţiile B = A ∪ (B - A) şi A ∩ (B - A) =
φ aplicând axioma iii) avem
P ( B ) = P[ A ∪ ( B − A)] = P ( A) + P ( B − A)

P2) Probabilitatea reunirii (formula lui


Poincaré):
20 Elemente de teoria probabilităţilor şi statistică matematică

Dacă A, B ∈K atunci
P ( A ∪ B ) = P ( A) + P ( B ) − P ( A ∩ B ) .

Demonstraţie:
Din relaţiile A ∪ B = A ∪ [ B − ( A ∩ B )] şi
A ∩ [ B − ( A ∩ B)] = φ aplicând axioma iii) avem

P ( A ∪ B ) = P ( A) + P[ B − ( A ∩ B ) ] = P ( A) + P ( B ) − P ( A ∩ B )

dacă s-a folosit P1.


Generalizare:
Dacă A1,A2,…An sunt evenimente compatibile
atunci

n  n n
n 
P  Ai  = ∑ P( Ai ) − ∑ P( Ai ∩ A j ) + ∑ P( Ai ∩ A j ∩ Ak ) + ...+ (− 1) n− 1 P Ai 
 i= 1  i= 1 i, j=1 i≠ j ≠ k  i= 1 
i≠ j

P3) Probabilităţi condiţionate: Dacă P(B) ≠ 0

P(A ∩B)
atunci raportul îl numim probabilitatea lui A
P (B)

condiţionată de B şi notăm PB(A) sau P ( A B) .


Demonstraţie:
Elemente de teoria probabilităţilor 21

Arătăm că PB ( A) satisface axiomele


probabilităţii:
i) PB ( A) ≥ 0 deoarece P ( A ∩B ) ≥ 0 şi
P( B) > 0

P( B ∩ E ) P ( B )
ii) PB ( E ) = = =1
P( B) P( B)

iii) Fie A1 şi A2 ∈ K şi A1 ∩ A2 = φ . Avem

P( B ∩ ( A1 ∪ A2 ) ) P[ ( B ∩ A1 ) ∪ ( B ∩ A2 )]
PB ( A1 ∪ A2 ) = = =
P( B ) P( B )
P ( B ∩ A1 ) + P( B ∩ A2 ) P( B ∩ A1 ) P ( B ∩ A2 )
= = + = PB ( A1 ) + PB ( A2 )
P( B) P( B) P( B)

, dacă ( B ∩ A1 ) ∩ ( B ∩ A2 ) = φ .
Observaţie 1.5.1.
1) Oricărui câmp de evenimente [E,K] îi putem
ataşa un câmp de probabilitate condiţionat {E, K, PB}.
2) P(A ∩ B) = P(B) ⋅ PB (A ) - formula de calcul
a intersecţiei a două evenimente dependente. Are loc o
22 Elemente de teoria probabilităţilor şi statistică matematică

generalizare: dacă A1, A2, …An sunt evenimente


dependente atunci
 n 
P
A i 
 = P ( A 1 ) ⋅ PA1 ( A 2 ) ⋅ PA1 ∩A 2 ( A 3 ).... Pn −1 A ( A n ).
 i =1   i
i =1

3) Dacă evenimentele A şi B sunt independente


atunci PB(A)=P(A) şi P(A ∩B) = P(A) ⋅ P(B) - formula
de calcul a intersecţiei a două evenimente independente.
Generalizare:
Dacă A1, A2, …An sunt evenimente

n  n
independente atunci 
P A i  ∏P( A i ) .
 =
 i =1  i =1

4) Dacă evenimentele A şi B se condiţionează


reciproc şi P (A ) ≠ 0, P(B) ≠ 0 atunci
P(A ) ⋅ PA ( B) = P( B) ⋅ PB ( A ) .

P4) Probabilitatea reunirii evenimentelor


independente. Dacă A1, A2, …An sunt evenimente

 n  n
independente, atunci: P  A i  = 1 − ∏(1 − P( A i ) )
 i =1  i =1

Demonstraţie:
Elemente de teoria probabilităţilor 23

Folosind relaţiile lui De Morgan

n n

 Ai =Ai şi faptul că Ai sunt evenimente


i=1 i=1

independente implică

n   n 
 Ai  =1 − P 
n n n
P
 Ai 
 =1 − P
 i =1 

 Ai 
 =1 −∏ P ( Ai ) =1 −∏ (1 −
 i =1     i =1  i =1 i =1

P5) Inegalitatea lui Boole: A1, A2, …An, sunt


evenimente dependente atunci

 n  n n
P
Ai  ∑
 ≥ P ( Ai ) − ( n −1) =1 − ∑ P ( Ai )
 i =1  i =1 i =1

Demonstraţie:
Verificăm inegalitatea din enunţ prin inducţie
matematică.
Pentru n = 2 avem
P ( A1 ∪ A2 ) = P ( A1 ) + P ( A2 ) − P ( A1 ∩ A2 ) dacă
P ( A1 ∪ A2 ) ≤ 1 şi rezultă
P( A1 ∩ A2 ) ≥ P ( A1 ) + P( A2 ) − 1 relaţia este adevărată.
24 Elemente de teoria probabilităţilor şi statistică matematică

Presupunem inegalitatea adevărată pentru n-1


adică
 n −1  n −1
P
Ai  ≥ ∑P ( Ai ) −( n − 2)
 şi
 i =1  i =1
demonstrăm pentru n.
Avem succesiv
 n  n −1   n −1 
P
Ai 
 = P 
Ai 
 ∩An  ≥ P 
A i 
 + P ( An
 i =1   i =1    i =1 
n −1 n
≥ ∑P ( Ai ) −(n −2) + P ( An ) −1 = ∑P ( Ai ) −( n −
i =1 i =1

dacă s-a ţinut seama de ipoteza de inducţie.


P6) Formula probabilităţii totale: Dacă A1¸A2, …
An este un sistem complet de evenimente [E, K] şi X ∈ K

n
atunci P(X)= ∑P( A i ) ⋅ PA ( X ).
i
i =1

Demonstraţie:
Din ipoteza că Ai, i =1, n este un sistem
complet de evenimente rezultă că
X = ( A1 ∩ X ) ∪ ( A2 ∩ X ) ∪ ... ∪ ( An ∩ X )
Elemente de teoria probabilităţilor 25

Deoarece Ai ∩A j =φ, i ≠ j , i, j =1, n avem



( X ∩Ai ) ∩( X ∩A j ) =φ, i ≠ j , i, j =1, n

Avem succesiv

 n  n n
P ( X ) = P  ( Ai ∩ X )  = ∑ P ( Ai ∩ X ) = ∑ P ( Ai ) ⋅ PAi ( X )
 i =1  i =1 i =1

P7) Formula lui Bayes: Dacă A1, A2, …An este


un sistem complet de evenimente al câmpului [E, K] şi
X ∈ K atunci:
P(A i ) ⋅ PA i (X)
n
PX(Ai)= , i =1, n
∑ P(A ) ⋅ P
i =1
i Ai (X)

Demonstraţie:
Deoarece P( X ∩ Ai ) = P( X ) ⋅ PX ( Ai ) şi
P( X ∩ Ai ) = P( Ai ) ⋅ PAi ( X ) avem

P ( X ) ⋅ PX ( Ai ) = P ( Ai ) ⋅ PAi ( X ) , deci
26 Elemente de teoria probabilităţilor şi statistică matematică

P( Ai ) ⋅ PAi ( X ) P( Ai ) ⋅ PAi ( X )
PX ( Ai ) = = n
P( X ) dacă s-a
∑ P( A ) ⋅ P
i =1
i Ai (X )

folosit formula probabilităţii totale.


Exemplul 1.5.2. Cele 26 de litere ale
alfabetului, scrise fiecare pe un cartonaş, sunt introduse
într-o urnă. Se cere probabilitatea ca extrăgând la
întâmplare de 5 ori câte un cartonaş şi aşezându-le în
ordinea extragerii să obţinem cuvântul LUCIA.
Rezolvare:
Notăm prin X evenimentul căutat, deci de a
obţine prin extrageri succesive cuvântul LUCIA, de
asemenea notăm prin A1 = evenimentul ca la prima
extragere să obţinem litera L; A2 = evenimentul ca la a
doua extragere să obţinem litera U; A3 = evenimentul ca
la a treia extragere să obţinem litera C; A4 = evenimentul
ca la a patra extragere să obţinem litera I; A5 =
evenimentul ca la a cincea extragere să obţinem litera A.
Atunci evenimentul X are loc dacă avem
X = A1 ∩ A 2 ∩ A 3 ∩ A 4 ∩ A 5 .
Elemente de teoria probabilităţilor 27

Rezultă:
P ( X ) = P ( A1 ) ⋅ P ( A2 A1 ) ⋅ P ( A3 A1 ∩ A2 ) ⋅ P ( A4 A1 ∩ A2 ∩ A3 )
1 1 1 1 1
⋅ P ( A5 A1 ∩ A2 ∩ A3 ∩ A4 ) = ⋅ ⋅ ⋅ ⋅ .
26 25 24 23 22

Exemplul 1.5.3. Dacă probabilitatea ca un


automobil să plece în cursă într-o dimineaţă friguroasă
este de 0,6 şi dispunem de două automobile de acest fel,
care este probabilitatea ca cel puţin unul din automobile
să plece în cursă într-o dimineaţă friguroasă?
Rezolvare:
Dacă notăm prin A1 şi A2 evenimentele ca
primul respectiv, al doilea automobil să plece în cursă şi
prin X evenimentul căutat, deci ca cel puţin unul dintre
automobile să plece în cursă, avem: X = A 1 ∪ A 2 , iar
P(X ) = P(A 1 ∪ A 2 ) = P( A 1 ) + P(A 2 ) − P( A 1 ∩ A 2 ),

deoarece evenimentele A 1 şi A 2 sunt compatibile (cele


două automobile pot să plece în cursă deodată). Cum P(
A 1 ) = P( A 2 ) = 0,6, iar evenimentele A 1 şi A 2 sunt

independente între ele (plecarea unui automobil nu


depinde de plecarea sau neplecarea celuilalt), deci P(
28 Elemente de teoria probabilităţilor şi statistică matematică

A 1 ∩ A 2 ) = P( A 1 ) P( A 2 ) = (0,6) 2 . Se obţine că P(X) =

0,6 + 0,6 - (0,6) 2 = 0,84.


Exemplul 1.5.4. Trei secţii ale unei întreprinderi
S1 , S 2 , S 3 depăşesc planul zilnic de producţie cu
probabilităţile de respectiv 0,7; 0,8 şi 0,6. Să se calculeze
probabilităţile evenimentelor:
A - cel puţin o secţie să depăşească planul
de producţie.
B - toate secţiile să depăşească planul de
producţie.
Rezolvare:
Fie A i evenimentul ca secţia S i să depăşească
planul de producţie.
Avem: A = A 1 ∪ A 2 ∪ A 3 , deci
P(A) = P (A 1 ∪ A 2 ∪ A 3 ) = 1 − P( A 1 ∩ A 2 ∩ A 3 ) =
1 − P( A1 ) ⋅ P( A 2 ) ⋅ P( A 3 ) = 1- (1-0,7)(1-0,8)(1-0,6) =
1 − 0,3 ⋅ 0,2 ⋅ 0,4 = 0,976 .
B = A 1 ∩ A 2 ∩ A 3 şi ţinând seama de independenţa
evenimentelor, avem:
Elemente de teoria probabilităţilor 29

P(B) =
P(A 1 ∩ A 2 ∩ A 3 ) = P(A 1 ) ⋅ P(A 2 ) ⋅ P( A 3 ) = 0,7 ⋅ 0,8 ⋅ 0,6 = 0,336

Exemplul 1.5.5. O presă este considerată că


satisface standardul de fabricaţie dacă trei caracteristici
sunt satisfăcute. Dacă aceste caracteristici A, B şi C sunt

9 7
satisfăcute cu probabilităţile P(A) = , P(B) = şi
10 11

11
P(C) = , atunci probabilitatea ca să fie satisfăcute
12
toate trei caracteristicile se poate evalua cu formula lui
Boole. Astfel se poate scrie:
P( A ∩B ∩C) ≥1 −[P( A ) + P(B) + P( C ) ], adică P(

1 4 1  229
A ∩ B ∩ C) ≥ 1 −  + +  = .
 10 11 12  660
Exemplul 1.5.6. Un sortiment de marfă dintr-o
unitate comercială provine de la trei fabrici diferite în

1 1
proporţii, respectiv de la prima fabrică, de la a
3 6
doua fabrică şi restul de la fabrica a treia. Produsele de la
30 Elemente de teoria probabilităţilor şi statistică matematică

cele trei fabrici satisfac standardele de fabricaţie în


proporţie de 90%, 95% şi respectiv 92%. Un client ia la
întâmplare o bucată din sortimentul de marfă respectiv.
a) Care este probabilitatea ca produsul să
satisfacă standardele de fabricaţie?
b) Care este probabilitatea ca produsul să fie
defect şi să provină de la prima fabrică?
Rezolvare:
a) Notăm cu A 1 , A 2 şi A 3 evenimentele ca
produsul cumpărat să fie de la prima, a doua, respectiv a
treia fabrică. Aceste trei evenimente formează un sistem
complet de evenimente şi au probabilităţile P(

1 1 1
A1 ) = , P(A 2 ) = şi P ( A3 ) = . Dacă A este
3 6 2
evenimentul că produsul cumpărat de client satisface
standardele de fabricaţie, atunci P(A A 1 ) = 0,90 , P(
A A 2 ) = 0,95 şi P( A A 3 ) = 0,92 . Folosind formula
probabilităţii totale se obţine:
Elemente de teoria probabilităţilor 31

P ( A) = P ( A1 ) ⋅ P ( A A1 ) + P ( A2 ) ⋅ P ( A A2 ) + P ( A3 ) ⋅ P ( A A3 )
1 1 1 5,51
= ⋅ 0,90 + ⋅ 0,95 + 0,92 = = 0,918
9 6 2 6
b) Folosind formula lui Bayes, avem:
P(

P( A 1 ) P( A A 1 )
A1 A) = =
P( A 1 ) P ( A A 1 ) + P ( A 2 ) P ( A A 2 ) + P ( A 3 ) P ( A A 3 )

1
⋅ 0,10
3 0,2
= = = 0,408 .
1 1 1 0,49
⋅ 0,10 + ⋅ 0,05 + ⋅ 0,08
3 6 2

1.6. Scheme clasice de probabilitate


Sub această denumire se pot întâlni câteva
experimente-model care conduc la calculul rapid al
probabilităţilor unor evenimente care se produc sau apar
în condiţii analoage celor ce definesc experimentele-
model. Cu alte cuvinte, pot fi calculate anumite
probabilităţi pe baza unor formule sau scheme de calcul,
indiferent de natura experimentului considerat, fără a mai
32 Elemente de teoria probabilităţilor şi statistică matematică

recurge de fiecare dată la procedeele greoaie sugerate de


formula dată de definiţia clasică.
Schema lui Bernoulli cu bila întoarsă
(binomială) 1.6.1.
Se aplică în cazul în care se fac repetări
independente ale unui experiment şi la fiecare repetare se
are în vedere apariţia unui eveniment bine precizat. Se
cere determinarea probabilităţii ca din n repetări ale
experimentului, evenimentul considerat să apară de k ori.
Modelul probabilistic se realizează printr-o urnă
ce conţine bile de două culori (albe şi negre). Se extrag
bile din urnă una câte una, fiecare bilă se reintroduce în
urnă după constatarea culorii. Se cere determinarea
probabilităţii ca din n bile extrase, k să fie de culoare
albă.
Fie A i evenimentul ca la extragerea de rang i să
se obţină o bilă albă şi A i evenimentul ca la extragerea
de rang i să se obţină o bilă neagră. Dacă în urnă se află
N bile, din care a = bile albe şi b = bile negre, avem
Elemente de teoria probabilităţilor 33

a b
p = P( A i ) = şi P( A i ) = = q , evident p+q=1. Notăm
N N

cu X k , n −k evenimentul ca după n extrageri să obţinem


de k ori bilă albă şi apoi de n-k ori bilă neagră, avem:
P(
X k ,n −k ) = P(A 1 ∩ A 2 ∩ ... ∩ A k ∩ A k +1 ∩ ... ∩ A n ) = p k q n −k

.
Dacă X este evenimentul ca din cele n bile
extrase exact k să fie albe, avem: P(X) =

n!
C kn P ( X k , n −k ) = C kn p k q n −k = p k q n −k .
k!( n − k )!

Această probabilitate se mai notează P(n,k) =

C kn p k q n −k , p+q=1.
Observaţie 1.6.2.
1) Dacă se consideră formula binomului lui
Newton:
n n
( px + q ) n = ∑ C kn p k q n −k x k = ∑ P(n , k ) x k , deci
k =0 k =0

P(n,k) este coeficientul lui x k din dezvoltarea binomială


( px + q ) n , de aici şi denumirea de schema binomială.
34 Elemente de teoria probabilităţilor şi statistică matematică

n
2) ∑P(n, k ) = 1.
k =0

Schema multinomială 1.6.3.


Este o generalizare a schemei binomiale. Fie o
urnă ce conţine N bile de s culori, c i , i =1, s şi a i

s
numărul bilelor de culoare c i , i = 1, s , iar ∑a
i =1
i = N.

Se fac n extrageri succesive cu revenirea bilei în urnă. Fie


X evenimentul ca în cele n extrageri să obţinem αi bile
de culoare c i , i =1, s . Se cere P(X) =
Pn (α1 , α2 ,..., αs ) . Notăm A i evenimentul ca la o
extragere să obţinem bila de culoare

ai
c i , i = 1, s, p i = P(A i ) = , i = 1, s , atunci:
N
n! α α α
Pn (α1 , α2 ,..., αs ) = p1 1 p 2 2 ... p s s
α1!α2 !... αs !

s
, unde ∑α
i =1
i =n
Elemente de teoria probabilităţilor 35

Schema lui Bernoulli cu bila neîntoarsă


(hipergeometrică) 1.6.4.
Se consideră o urnă care conţine bile de două
culori: a bile albe şi b bile negre. Se extrag bile din urnă,
una câte una, fără întoarcerea bilelor extrase înapoi în
urnă. Se cere să se determine probabilitatea ca din n bile
extrase k să fie de culoare albă şi n-k de culoare neagră.
n
Există C a +b posibilităţi de a lua n bile din
totalul de a+b bile câte sunt în urnă la început. Numărul
posibilităţilor de a lua k bile albe din cele a existente la

început în urnă este C ak , iar pentru a lua n-k bile negre


din cele b bile negre ce se află în urnă la început este

C ak C nb −k
C nb −k , deci P(n,k) = , unde a ≥ k, b ≥ n − k şi
C an+b
a +b ≥n.
Generalizare:
În urnă se află bile de r culori, adică a 1 bile de
culoarea 1, a 2 bile de culoarea 2 etc. a r bile de
culoarea r şi se extrag n bile fără întoarcerea bilei extrase
36 Elemente de teoria probabilităţilor şi statistică matematică

în urnă. Se cere probabilitatea P(n; k 1 , k 2 ,..., k r ) ca din


cele n bile extrase să se obţină k 1 bile de culoarea 1, k 2
bile de culoarea 2 etc. Avem:

Cak11 Cak22 ...Cakrr


P (n; k1 , k 2 ,..., k r ) = , cu
Cak11++ak22++......++akrr
k1 + k 2 + ... + k r = n

Schema lui Poisson 1.6.5.


Se aplică în cazul în care se fac repetări
independente ale unui experiment şi la fiecare repetare se
are în vedere un anumit eveniment, eveniment ce apare,
în general, cu probabilităţi diferite la repetări de rang
diferit. Se cere să se determine probabilitatea ca din n
repetări ale experimentului, evenimentul considerat să
apară de k ori.
Modelul probabilistic se obţine cu ajutorul unui
sistem de n urne care conţin bile de două culori, albe şi
negre, în proporţii diferite, în general. Se ia câte o bilă
din fiecare urnă şi se cere probabilitatea P(n,k) de a
obţine k bile albe din cele n extrase.
Elemente de teoria probabilităţilor 37

Notăm cu p i probabilitatea de a extrage bilă


albă din urna de rang i şi cu q i probabilitatea de a
extrage bilă neagră din urna de rang i, unde
p i + q i =1, ∀i =1, n. Avem că P(n,k) este coeficientul
lui xk din dezvoltarea polinomului:
(p1 x + q 1 )( p 2 x + q 2 )...( p n x + q n ) .

Schema lui Pascal (binomială cu exponent


negativ) 1.6.6.
Se aplică în cazul în care se fac repetări
independente ale unui experiment şi la fiecare repetare
evenimentul considerat apare cu aceeaşi probabilitate.
Vrem să determinăm probabilitatea ca până la cea de-a n-
a apariţie a evenimentului considerat să se fi realizat
contrarul evenimentului considerat de k ori.
Modelul probabilistic se realizează printr-o urnă
cu bile de două culori, albe şi negre. Se extrag bile din
urnă cu întoarcerea bilei extrase după ce s-a notat
culoarea ei. Vom spune că avem "succes", dacă s-a
obţinut bila albă şi "insucces", dacă s-a obţinut bila
neagră. La fiecare repetare, "succes" apare cu
38 Elemente de teoria probabilităţilor şi statistică matematică

probabilitatea p şi "insucces" apare cu probabilitatea q=1-


p. Vrem să determinăm probabilitatea P(n,k) ca la
apariţia celui de-al n-lea "succes" să se fi obţinut k
"insuccese". Notăm B n , k evenimentul că la apariţia
celui de-al n-lea "succes" s-au obţinut k "insuccese".
Atunci Bn ,k = An−1 ∩An+k , unde An−1 = evenimentul ca
în primele n+k-1 repetări să se obţină n-1 "succese" şi k
"insuccese", iar A n +k = evenimentul ca la repetarea de
rang n+k să avem "succes". Avem P(
Bn ,k ) = P ( An −1 ) ⋅ P ( An +k ) , dar P( A n +k ) = p, iar P(
An −1 ) se calculează conform schemei binomiale, adică

P ( An −1 ) = C nn+−k1 −1 p n −1 q k . Rezultă că: P(n,k) =

C nn −1 n k
+k −1 p q .

Observaţie 1.6.7.
1) Din proprietatea de complementaritate a

combinărilor, avem: P (n, k ) = Cn+k −1 p q .


k n k

2) P(n,k) se obţine ca şi coeficientul lui x k din


dezvoltarea lui
Elemente de teoria probabilităţilor 39

∞ ∞
pn
p n (1 − qx ) −n =
(1 − qx ) n
= ∑
k =0
C k
n +k −1 p n k k
q x = ∑
k =0
P(n , k ) x k , qx < 1

, deci seria binomială; de aici şi denumirea de schema


binomială cu exponent negativ.
3) Dacă n=1, adică dacă se cere probabilitatea ca
la apariţia primului "succes" să se fi produs k
"insuccese", avem P(1,k) = pq k . În acest caz particular,
se obţine schema geometrică, deoarece P(1,k) este
coeficientul lui
xk din seria geometrică, adică

∞ ∞
p
= ∑ pq k x k = ∑ P(1, k ) x k .
1 − qx k =0 k =0

Exemplul 1.6.8. O unitate hotelieră se consideră


că este normal ocupată dacă cel puţin 80% din
capacitatea sa este utilizată. Dintr-un studiu statistic s-a
obţinut că probabilitatea ca hotelul să fie normal ocupat

7
într-o zi este p = . Vrem să calculăm probabilitatea ca
8
unitatea hotelieră să fie normal ocupată în cinci zile din
cele şapte zile ale unei săptămâni.
40 Elemente de teoria probabilităţilor şi statistică matematică

Rezolvare:
Calculul acestei probabilităţi se face cu schema

7
lui Bernoulli cu bila întoarsă, unde n=7, k=5; p= şi q
8

1
= 1-p = . Astfel se obţine că:
8
7 1 3 7
P(7,5) = C 57 ( ) 5 ( ) 2 = ( ) 6 .
8 8 8 8
Exemplul 1.6.9. Piesele produse de o maşină
sunt supuse la două teste independente. Probabilităţile ca

2 3
o piesă să treacă aceste teste sunt respectiv şi . Să
3 4
se calculeze probabilitatea ca din 5 piese luate la
întâmplare, 2 să treacă ambele teste, 1 numai primul test,
1 numai al doilea test, iar una să nu treacă nici un test.
Rezolvare:
Această probabilitate se calculează cu schema
multinomială, unde n=5, s=4, α 1 = 2, α 2 = α 3 = α 4 = 1 , iar
întrucât testele sunt independente, avem că:
2 3 1 2 3 1 2 3 1 2 3
p1 = ⋅ = ; p 2 = ⋅ (1 − ) = ; p 3 = (1 − ) ⋅ = ; p 4 = (1 − )(1 −
3 4 2 3 4 6 3 4 4 3 4
Elemente de teoria probabilităţilor 41

Astfel, putem scrie: P(5; 2,1,1,1) =

5! 1 1 1 1 5
⋅( )2 ⋅ ⋅ ⋅ = .
2!⋅1!⋅1!⋅1! 2 6 4 12 96
Exemplul 1.6.10. Într-un lot de 50 de piese, 10
sunt defecte. Se iau la întâmplare 5 piese. Vrem să
calculăm probabilitatea ca trei piese din cele cinci să nu
fie defecte.
Rezolvare:
Această probabilitate se calculează cu schema
lui Bernoulli cu bila neîntoarsă, unde a+b=50; a=40,

b=10, n=5 şi k=3. Avem P(5;3) = C 340 ⋅ C10


2
.
C 550
Exemplul 1.6.11. Patru trăgători trag asupra

2
unei ţinte. Primul atinge ţinta cu probabilitatea , al
3

3
doilea cu probabilitatea , al treilea cu probabilitatea
4
42 Elemente de teoria probabilităţilor şi statistică matematică

4 5
, iar al patrulea cu probabilitatea . Care este
5 6
probabilitatea ca ţinta să fie atinsă exact de 3 ori?
Rezolvare:
Evenimentele A i = trăgătorul "i" atinge ţinta; i
= 1,2,3,4 sunt independente şi:
2 3 4
p1 = P ( A1 ) = ; p2 = P( A2 ) = ; p3 = P ( A3 ) = ;
3 4 5
5 1
p4 = P ( A4 ) = ; q1 = 1 − p1 =
6 3

1 1 1
q2 = 1 − p2 = ; q3 = 1 − p3 = ; q4 = 1 − p4 = .
4 5 6
Probabilitatea ca din aceste patru evenimente să se
realizeze trei şi unul nu, este coeficientul lui x 3 din
dezvoltarea polinomului: Q(x) =

2 1 3 1 4 1 5 1
( x + )( x + )( x + )( x + ) , adică:
3 3 4 4 5 5 6 6
2 3 4 1 2 3 1 5 2 1 4 5 1 3 4 5
⋅ ⋅ ⋅ + ⋅ ⋅ ⋅ + ⋅ ⋅ ⋅ + ⋅ ⋅ ⋅ = 0,427 .
3 4 5 6 3 4 5 6 3 4 5 6 3 4 5 6
Exemplul 1.6.12. Doi jucători sunt angrenaţi
într-un joc format din mai multe partide. Primul jucător
Elemente de teoria probabilităţilor 43

1
câştigă o partidă cu probabilitatea p = şi o pierde cu
3

2
probabilitatea q = 1-p = . Să se calculeze
3
probabilitatea că:
a) prima partidă câştigată de primul jucător să se
producă după cinci partide pierdute;
b) a treia partidă câştigată de primul jucător să
se producă după un total de şase partide pierdute.
Rezolvare:
a) Se aplică schema geometrică. Prin urmare,
probabilitatea cerută este dată de P(1,5) = p q 5 =

1 2 5 32
( ) = .
3 3 729
b) Se utilizează schema lui Pascal, unde n=3,

1 2
k=6, p= , q= . Astfel, probabilitatea cerută este:
3 3
1 2 7 2 9
P(3,6) = C 86 ( ) 3 ( ) 6 = ⋅( ) .
3 3 2 3
Exemplul 1.6.13. Într-o cutie sunt 12 bile
marcate cu 1; 8 sunt marcate cu 3 şi şase sunt marcate cu
44 Elemente de teoria probabilităţilor şi statistică matematică

5. O persoană extrage la întâmplare din cutie 4 bile. Să se


calculeze probabilitatea ca suma obţinută să fie cel mult
13.
Rezolvare:
Dacă notăm cu A evenimentul ca suma obţinută
de cele patru bile să fie cel mult 13, atunci evenimentul
contrar A este evenimentul ca suma să fie cel puţin 14.
Se vede că suma maximă ce se poate obţine este 4 ⋅ 5 =
20.
De asemenea, avem că
3 ⋅ 5 +1 ⋅ 3 =18 ; 3 ⋅ 5 +1 ⋅1 =16 ; 2 ⋅ 5 +2 ⋅ 3 =16 ; 2 ⋅ 5 +1 ⋅ 3 +1 ⋅1 =14 ; 1 ⋅ 5 +3

Alte posibilităţi de a obţine suma cel puţin 14


din patru bile nu există. Aşadar, pentru a obţine suma 14,
trebuie luate două bile marcate cu 5 din cele şase
existente, una marcată cu 3 din cele opt şi una marcată cu
1 din cele 12, respectiv una marcată cu 5 şi 3 marcate cu
3.
Folosind schema lui Bernoulli cu bila neîntoarsă
cu 3 stări se obţine că:
Elemente de teoria probabilităţilor 45

C 62 C18 C112 C16 C 83 C12


0
888
P14 = P(4;2,1,1) + P(4;1,3,0) = 4
+ 4
=
C 26 C 26 7475
.
Analog, avem că:
C 62 C 82 C12
0
C 36 C 80 C112 66
P16 = P(4;2,2,0) + P(4;3,0,1) = 4
+ 4
=
C 26 C 26 1495
;
C 36 C18 C12
0
16
P18 = P( 4;3,1,0) = 4
= .
C 26 1495

C 64 C 80 C12
0
P20 = P( 4;4,0,0) = .
C 426
Avem că:
2611
P( A ) = P14 + P16 + P18 + P20 = , de unde
14950
2611 12339
P(A) = 1-P( A ) = 1-
14950
=
14950
≅ 0,825 .

1.7. Variabile aleatoare discrete


În ciuda faptului că după repetarea unui
experiment de un număr mare de ori intervine o anumită
46 Elemente de teoria probabilităţilor şi statistică matematică

regularitate în privinţa apariţiei unor rezultate ale


acestuia, nu se poate preciza niciodată cu certitudine care
anume dintre rezultate va apare într-o anumită probă. Din
acest motiv cuvântul sau conceptul „aleator” trebuie
înţeles sau gândit în sensul că avem de-a face cu
experimente sau fenomene care sunt guvernate de legi
statistice (atunci când există un anumit grad de
incertitudine privind apariţia unui rezultat sau reapariţia
lui) şi nu de legi deterministe (când ştim cu certitudine ce
rezultat va apare sau nu). Pentru ca astfel de experimente
sau fenomene să fie cunoscute şi prin urmare studiate,
sunt importante şi necesare două lucruri şi anume:
1. rezultatele posibile ale experimentului,
care pot constitui o mulţime finită, infinită
sau numărabilă sau infinită şi nenumărabilă;
2. legea statistică sau probabilităţile cu care
este posibilă apariţia rezultatelor
experimentului considerat.
În linii mari şi într-un înţeles mai larg, o mărime
care ia valori la întâmplare sau aleatoriu dintr-o mulţime
Elemente de teoria probabilităţilor 47

oarecare posibilă se numeşte variabilă aleatoare (sau


întâmplătoare). Se poate da şi o definiţie riguroasă.
Definiţie 1.7.1. Fie câmpul de probabilitate {E,
K, P}. Numim variabilă aleatoare de tip discret o
aplicaţie X:E→R care verifică condiţiile:
i) are o mulţime cel mult numărabilă de valori;
ii) ∀x ∈ R (X = x ) ∈K
Observaţii 1.7.2.
1) Dacă K=P(E) atunci ii) este automat
îndeplinită;
2) Dacă o variabilă ia un număr finit de valori
vom spune că este variabilă aleatoare simplă.
48 Elemente de teoria probabilităţilor şi statistică matematică

Definiţie 1.7.3. Numim distribuţia sau repartiţia

 xi 
variabilei aleatoare X de tip discret, tabloul
X 
 pi  i∈ I
unde xi, i ∈I, sunt valorile pe care le ia X iar pi este
probabilitatea cu care X ia valoarea xi adică pi = P(X =
xi ), i ∈ I mulţimea I putând fi finită sau cel mult
numărabilă.
Observaţii 1.7.4.
1) Evenimentele (X = xi ) formează un sistem

complet de evenimente şi ∑p
i∈I
i =1 .
Elemente de teoria probabilităţilor 49

2) Se obişnuieşte ca valorile variabilei să se


noteze în ordine crescătoare adică
x 1 < x 2 < x 3 ... < x n < ....

3) Variabila aleatoare pentru care mulţimea


valorilor este un interval finit sau infinit pe axa
numerelor reale este variabilă aleatoare continuă.
4) Forma cea mai generală a unei variabile
aleatoare aparţinând unei clase de variabile aleatoare de
tip discret se numeşte lege de probabilitate discretă.
50 Elemente de teoria probabilităţilor şi statistică matematică

Definiţie 1.7.5. Spunem că variabilele aleatoare

 xi 
X şi Y care au respectiv distribuţiile
X  şi

 pi  i∈ I
Elemente de teoria probabilităţilor 51

 yj 
Y 
q 
sunt independente dacă

 j  j∈ J
P(X = xi , Y = yj) = P(X = xi ) P(Y = yj),
∀(i, j) ∈IxJ .

Definiţie 1.7.6. Fie variabilele aleatoare X, Y

 xi   yj 
X  Y 
q 
care au respectiv distribuţiile şi

 pi  i∈ I  j  j∈ J
52 Elemente de teoria probabilităţilor şi statistică matematică

atunci variabila aleatoare sumă X+Y, produs X ⋅ Y şi cât

X
(dacă y j ≠ 0, ∀j ∈J ) vor avea distribuţiile
Y

 xi 
 xi + y j   xi y j  X  
X + Y  , X ⋅ Y   y j 
 p   p  Y 
, unde

 i j  (i,j)∈ I x J  i j (i,j)∈ I x Jpi  j


(i,j)∈ I x J
pij = P(X = xi, Y = yj) (i,j) ∈IxJ .
Definiţie 1.7.7. Se numeşte
Elemente de teoria probabilităţilor 53

a) produs al variabilei aleatoare X cu


constanta a variabila aleatoare

 ax 
aX :  i 
 pi i∈I
b) putere a variabilei aleatoare X de
exponent k, k ∈ Z , variabila aleatoare

 xk 
X k :  i  cu condiţia ca operaţiile xik ,
 pi i∈I
i ∈ I , să aibă sens.
Observaţie 1.7.8. Au loc relaţiile

∑p
j∈J
ij = p i , ∀i ∈I şi ∑p
i∈I
ij = q j , ∀j ∈J.

Dacă variabilele X,Y sunt independente atunci


pij = pi q j , ∀(i , j ) ∈I × J

Definiţie 1.7.9. Numim funcţie de repartiţie


ataşată variabilei aleatoare X funcţia F:R→R, definită

prin F(x)=P(X<x), ∀x ∈R , adică F(x)= x∑


<x
p i , x ∈R .
i

Proprietăţi ale funcţiei de repartiţie 1.7.10.


54 Elemente de teoria probabilităţilor şi statistică matematică

1. ∀x ∈R , 0 ≤ F( x ) ≤1
2. ∀a , b ∈R , a < b avem:

P (a ≤ X < b) = F( b) −F(a )
P (a < X < b) = F( b) −F(a ) − P( X = a )

P(a < X ≤ b) = F( b) − F(a ) − P( X = a ) + P( X = b)


P(a ≤ X ≤ b) = F( b) + P( X = b) − F(a )

Demonstraţie:
Avem succesiv
P ( a ≤ X < b ) = P ( X < b, X < a ) = P [ ( X < b ) − ( X < a ) ] =
= P ( X < b) − P ( X < a ) = F (b) − F ( a )

dacă s-a ţinut seama de relaţia ( X < a ) ⊂ ( X < b) şi s-a


folosit probabilitatea diferenţei.
P ( a < X < b ) = P[ ( a ≤ X < b ) − ( X = a ) ] = P ( a ≤ X < b ) − P ( X = a ) =
= F (b) − F (a ) − P ( X = a )

dacă s-a folosit relaţia demonstrată anterior.


3. ∀x 1 , x 2 ∈ R , x 1 < x 2 , ⇒ F( x 1 ) ≤ F( x 2 )
Demonstraţie:
Elemente de teoria probabilităţilor 55

0 ≤ P( x 1 ≤ X < x 2 ) = F ( x 2 ) − F ( x1 ) ⇒

F ( x1 ) ≤ F ( x 2 )

4. xlim F ( x) = 0, lim F ( x) = 1
→−∞ x→∞

Demonstraţie:
lim F ( x) = lim P ( X < x) = P (φ ) = 0
x →−∞ x →−∞

lim F ( x) = lim P( X < x ) = P( E ) = 1


x →+∞ x →+∞

5. ∀x ∈R , F( x − a ) = F( x ) (F este continuă la
stânga)
Exemplul 1.7.11. Se consideră variabila

1 2 3 4
aleatoare discretă X :  p 2 7 1 1  . Care este
 p 
 4 3 6
probabilitatea ca X să ia o valoare mai mică sau egală cu
3?
Rezolvare:
Pentru ca X să fie o variabilă aleatoare trebuie

7 1 1
ca p ≥ 0 şi p 2 + ⋅ p + + = 1 . Se obţine soluţia
4 3 6
56 Elemente de teoria probabilităţilor şi statistică matematică

1
acceptabilă p = . Se calculează probabilitatea cerută
4
prin intermediul evenimentului contrar şi anume

1 5
P( X ≤ 3) = 1 − P( X = 4) = 1 − = sau
6 6
1 7 1 5
P( X ≤ 3) = P( X = 1) + P( X = 2) + P( X = 3) = + + =
16 16 3 6
.
Exemplul 1.7.12. Se dau variabilele aleatoare
independente:

 −1 0 1 −1 0 1 
X: 1 1 1 ; Y : 1 
p + q+   2p − q 12p 2  .
 6 3 3 3 
a) Să se scrie distribuţia variabilei 2XY.
b) Pentru ce valori ale lui c avem:

2
P ( X + Y = c) > ?
9
Rezolvare:
Pentru ca X şi Y să fie variabile aleatoare se
impun condiţiile:
Elemente de teoria probabilităţilor 57

1 1
p+ ≥ 0; q + ≥ 0;2p − q ≥ 0 şi apoi :
6 3

 1 1 1
 6p + + q + + =1
3 3
 , rezultă valorile acceptabile
 1 + 2p − q + 1 2p 2 = 1
 3
1
p= şi q = 0. Deci variabilele aleatoare au repartiţiile:
6

 −1 0 1 −1 0 1
X: 1 1 1; Y : 1 1 1  . Avem :
   
3 3 3 3 3 3
− 2 0 2
a) 2XY :  2 5 2
 
 9 9 9
58 Elemente de teoria probabilităţilor şi statistică matematică

− 2 −1 0 1 2
b) X + Y :  1 2 3 2 1  , deci P(X +
 
 9 9 9 9 9

2 3 2
Y = c)> corespunde situaţiei P(X + Y = 0) = >
9 9 9
adică c = 0.
Exemplul 1.7.13. Variabila aleatoare X cu
distribuţia următoare:
Elemente de teoria probabilităţilor 59

1 
 1 2
X:2 
 1 1 1  , are funcţia de repartiţie:

6 2 3

 1
0, d a ăc x ≤ ,
 2

 1 , d a ăc 1 < x ≤ 1,
F( x ) = P ( X < x ) =  6 2
2
 , d a ăc1 < x ≤ 2,
3
 1, d a ăc x > 2
Graficul funcţiei de repartiţie este:
F(x)

2/3
60 Elemente de teoria probabilităţilor şi statistică matematică

1/6

1/2 1 2 x

1.8. Vector aleator bidimensional de tip


discret
Definiţie 1.8.1. Fie câmpul de probabilitate
{E,K,P}. Spunem că U=(X,Y) este vector aleator
bidimensional de tip discret dacă aplicaţia U:E → R 2
verifică condiţiile:
i) are o mulţime cel mult numărabilă de valori;
ii) ∀( x , y) ∈R 2 , (X = x , Y = y) ∈K .
Definiţie 1.8.2. Numim distribuţia sau repartiţia
vectorului aleator (X,Y) de tip discret tabloul:

Y y1……………yj……………
X
x1 p11……………p1j…………… unde
(
………

………

………

xi pi1……………pij……………
…..

…..

…..
.

…. ………………………………
Elemente de teoria probabilităţilor 61

x i , yi )

sunt
valori
le pe
care
le ia
vecto
rul
aleat
or
(X,Y
), iar
p ij = P( X = x i , Y =

).

Definiţie 1.8.3. Numim funcţie de repartiţie


ataşată vectorului aleator bidimensional funcţia F:
R 2 → R , definită prin:
F(x,y) = P(X<x, Y<y), ∀( x , y) ∈R 2 .
62 Elemente de teoria probabilităţilor şi statistică matematică

Proprietăţile funcţiei de repartiţie a unui


vector aleator bidimensional de tip discret 1.8.4.
1. ∀( x , y) ∈R 2 ,0 ≤ F( x , y) ≤1 .
2. dacă a<b şi c<d, atunci

P (a ≤ X < b, c ≤ Y < d ) = F( b, d ) − F(a , d ) − F( b, c) + F(a , c

.
3. F(x,y) este nedescrescătoare în raport cu
fiecare argument.

l i mF(x, y) = l i mF(x, y) = l i mF(x, y) = 0;


4. x→ − ∞ y→ − ∞ x→ − ∞
y→ − ∞

l i mF(x, y) = 1 .
x→ ∞
y→ ∞
5. F(x,y) este continuă la stânga în raport cu
fiecare argument.
Elemente de teoria probabilităţilor 63

Observaţie 1.8.5. Dacă (X,Y) are funcţia de


repartiţie F, iar variabilele X şi Y au funcţiile de repartiţie
FX şi respectiv FY , atunci:

FX ( x ) = lim F( x , y) şi
y →∞

FY ( y) = lim F( x , y) .
x →∞

Exemplul 1.8.6. Se consideră vectorul aleator


discret (X,Y) cu repartiţia dată în tabelul:

Y
X 2 6

1 0,20 0,10

3 0,05 0,15

4 0,45 0,05

a) să se determine repartiţia variabilelor X,Y,


X+Y;
b) să se stabilească dacă X şi Y sunt
independente sau nu;
64 Elemente de teoria probabilităţilor şi statistică matematică

 7
c) să se calculeze F  ,5  .
2 
Rezolvare:
a) Variabila X are repartiţia:
 1 3 4
X:  
 p1 p 2 p 3  , unde
 

p1 = p11 + p12 = 0,20 + 0,10 = 0,30


p 2 = p 21 + p 22 = 0,05 + 0,15 = 0,20 , adică
p 3 = p 31 + p 32 = 0,45 + 0,05 = 0,50

 1 3 4 
X: 
 
.
0,30 0,20 0,50 

 2 6 
Analog, variabila Y are repartiţia Y:  q q  ,
 1 2 

unde
q 1 = p11 + p 21 + p 31 = 0,20 + 0,05 + 0,45 = 0,70
, adică
q 2 = p12 + p 22 + p 32 = 0,10 + 0,15 + 0,05 = 0,30

 2 6 
Y: 0,70 0,30  .
 
Elemente de teoria probabilităţilor 65

Avem: X+Y:

 3 4 6 7 8 10 
 .
0,20 0,05 0,45 0,10 0,15 0,05 
 

b) Pentru verificarea independenţei variabilelor


X,Y, efectuăm un control, de exemplu:
P(X=1) P(Y=2) = 0,30 ⋅ 0,70 = 0,21 , iar
P[(X=1) ∩ (Y=2)] = p11 = 0,20 . Cum 0,21 ≠ 0,20,
deducem că X şi Y sunt dependente.
c) F(

7 7
,5) = P(X < , Y < 5) = P[( X = 1, Y = 2) ∪ (X = 3, Y = 2)] =
2 2
=P(X=1,Y=2) +P(X=3,Y=2) = 0,20+0,05 = 0,25.

1.9. Variabile aleatoare de tip continuu


Definiţie 1.9.1. Fie variabila aleatoare X având
funcţia de repartiţie F , vom spune că X este variabilă
aleatoare de tip continuu dacă funcţia de repartiţie se
poate reprezenta sub forma:
x
F(x) = ∫
−∞
ρ( t )dt , ∀x ∈R .
66 Elemente de teoria probabilităţilor şi statistică matematică

Funcţia ρ : R → R se numeşte densitate de


probabilitate a variabilei aleatoare X.
Propoziţie 1.9.2. Au loc afirmaţiile:
1) ∀x ∈R , ρ( x ) ≥ 0 .

2) F'(x) = ρ( x ) a.p.t. pe R.
b
3) P(a ≤X<b) = ∫ ρ( x )dx
a
.

4) ∫−∞
ρ( x )dx =1 .

Observaţie 1.9.3.
1. Pentru o variabilă de tip continuu P(X=a)= 0,
deci P(a ≤ X<b) = P(a<X<b) = P(a ≤ X ≤ b) = P(a<X<b)
b
= ∫ ρ( x )dx
a
.

2.

F ( x + ∆x ) − F ( x ) P ( x ≤ X < x + ∆x)
ρ ( x) = F ' ( x) = lim = lim
∆x →0 ∆x ∆x →0 ∆x
, deci când ∆x este mic avem P(x
≤ X < x + ∆x ) ≈ ρ( x ) ⋅ ∆x .

Definiţie 1.9.4. Fie vectorul aleator (X,Y) având


funcţia de repartiţie F, spunem că (X,Y) este un vector
Elemente de teoria probabilităţilor 67

aleator de tip continuu, dacă funcţia de repartiţie F se


poate pune sub forma:
x y
F(x,y) = ∫ ∫
−∞ −∞
ρ(s, t ) ds dt , ∀( x , y) ∈R 2 ,

iar funcţia ρ: R2 → R se numeşte densitate de


probabilitate a vectorului aleator (X,Y).
Observaţie 1.9.5. Dacă ρ este densitate de
probabilitate pentru (X,Y), iar ρX şi ρY densităţi de
probabilitate pentru X, respectiv Y au loc:
1) ρ( x , y) ≥ 0 , ∀( x , y) ∈R 2 .

∂2 F( x , y)
2) = ρ( x , y) a.p.t. pe R 2 .
∂x∂y
2
3) P((X,Y) ∈ D) = ∫∫ ρ( x, y ) dx dy , D ⊂ R .
D

4) ∫∫ R2
ρ( x , y) dx ⋅ dy = 1 .


5) ρX ( x ) = ∫ ρ( x , y)dy , ∀x ∈R ;
−∞


ρY ( y ) = ∫ ρ( x, y ) dx , ∀y ∈R .
−∞

Definiţie 1.9.6. Spunem că variabilele aleatoare


de tip continuu X şi Y sunt independente dacă F(x,y) =
FX ( x ) ⋅ FY ( y) , ∀( x , y) ∈R 2 .
68 Elemente de teoria probabilităţilor şi statistică matematică

Aplicaţie 1.9.7. Funcţia

kxy 2 , ( x, y ) ∈[1,2] ×[1,3]


ρ( x, y ) =  este densitate de
 0, în rest

probabilitate dacă ρ( x, y ) ≥ 0 şi

∫∫ρ( x, y )dxdy =1 ceea ce implică ecuaţia în k,


R2

2 3 1
k∫ ∫ xy 2 dxdy =1 , verificată pentru k = .
1 1 13
În acest caz funcţia de repartiţie va fi

0 , dacă x < 1 sau y


1 2
 ( x − 1)( y − 1)
3
, dacă ( x, y ) ∈ [1,2] ×
 78
1
, dacă y ∈ [1,3] şi x
x y
F ( x, y ) = ∫ ∫ uv dudv =  ( y 3 − 1)
2

 26
1 1

 1 ( x 2 − 1) , dacă y ∈ [1,2] şi y
2
1 , dacă x > 2 şi y >
şi deducem de asemenea că funcţiile de repartiţie
marginale sunt, respectiv,
Elemente de teoria probabilităţilor 69

0 , x <1
1 2
FX ( x) =  ( x − 1) , x ∈ [1,2] ;
3
1 ,x>2

0 , y <1
1
FY ( y ) =  ( x 2 − 1) , y ∈ [1,3]
3
1 , y >3

1.10. Exemple de legi de probabilitate de


tip continuu
Teorema 1.10.1. X şi Y sunt independente ⇔
ρ( x , y) = ρX ( x )ρY ( y).

Demonstraţie:
Presupunem că variabilele aleatoare X şi Y sunt
independente, atunci F(x, y) = FX(x) FY(y). Derivăm
această relaţie în raport cu x şi respectiv y, rezultă că

∂ F ( x, y )
ρ( x, y ) = = FX/ ( x ) FY/ ( y ) = ρX ( x ) ρY ( y )
∂x∂y

Afirmaţia inversă rezultă din:


70 Elemente de teoria probabilităţilor şi statistică matematică

x y x y x y
F ( x, y ) = ∫ ∫ ρ( s, t )dsdt
−∞ −∞
=∫ ∫ρ
−∞ −∞
X ( s ) ρY (t ) dsdt = ∫ρ
−∞
X ( s ) ds ∫
−∞

Obţinem că X, Y sunt variabile aleatoare independente.


Teorema 1.10.2. Fie vectorul aleator (X, Y)
cu densitatea de probabilitate ρ şi ρz densitatea de
probabilitate a variabilei aleatoare

Z=X+Y, atunci ρz ( x ) = ∫−∞ρ(u , x − u )du , ∀x ∈ R .

Demonstraţie:
Scriem funcţia de rapartiţie FZ a variabilei
aleatoare Z.
FZ ( x ) = P ( Z < x ) = P ( X +Y <) = ∫ ∫ ρ(u, v)dudv
u +v <x

Domeniul de integrare pe care se ia integrala


dublă este D = {( u , v) ∈ R 2 / u ∈ R,−∞ < v < x − u} . Avem

+∞ x −u
FZ ( x ) = ∫[ ∫ ρ(u, v)dv ]du care prin derivare
−∞ −∞

conduce la:
+∞ x −u +∞

ρZ ( x ) = F ( x ) = ∫ [ ∫ ρ(u , v ) dv ]du = ∫ ρ(u , x − u ) du
Z
/

−∞
∂x −∞ −∞
Elemente de teoria probabilităţilor 71

Observaţie 1.10.3.
1) Dacă X,Y sunt independente, atunci:

ρz ( x ) = ∫ ρX ( u ) ⋅ ρY ( x − u )du , ∀x ∈ R .
−∞

2) Dacă U= X ⋅ Y , atunci

∞ x du
ρU ( x ) = ∫ ρ( u , ) , ∀x ∈R .
−∞ u u

X
3) Dacă V= , atunci
Y

ρV ( x ) = ∫ ρ( xu , u ) ⋅ u du , ∀x ∈R .
−∞

Teorema 1.10.4. Fie variabila aleatoare X cu


densitatea de probabilitate ρX şi funcţia monotonă
g:R→R. Atunci variabila aleatoare Y=g(X) are densitatea
de probabilitate ρY dată prin:
ρX (g −1 ( x ))
ρY ( x ) = .
g ' (g −1 ( x ))

Demonstraţie:
Presupunem că g este strict crescătoare şi avem:
FY ( x ) = P (Y < x ) = P ( g ( X ) < x) = P ( X < g −1 ( x )) = FX ( g −1 ( x ))
Prin derivare se obţine că:
72 Elemente de teoria probabilităţilor şi statistică matematică

ρ X ( g −1 ( x))
ρY ( x) = F ( x) = ( g ( x)) F ( g ( x)) = / −1
Y
/ −1 / /
X
−1

g ( g ( x ))
Deoarece g este crescătoare, avem g/>0, deci
ρ X ( g −1 ( x))
ρY ( x) =
g / ( g −1 ( x))
Exemplul 1.10.5. Se consideră variabila
aleatoare X de tip continuu, care are densitatea de
probabilitate ρ( x ) = a ⋅ e
−x
, ∀x ∈R unde a ∈ R . Să se
determine:
a) parametrul real a;
b) funcţia de repartiţie a variabilei
aleatoare X;
c) probabilităţile
P(0 <X <2) şi P(X <0 X ∈[-2,2]).

Rezolvare:
a) Deoarece funcţia ρeste o densitate de
probabilitate, rezultă că
+∞
ρ( x ) ≥ 0, de unde a > 0, şi se impune ca ∫-∞
ρ(x)dx = 1

.
Elemente de teoria probabilităţilor 73

Avem:
+∞ ∞ +∞
a∫ dx = 2a ∫ e −x dx = −2a (e −x )
−x
e 0
= 2a
-∞ 0

1
Rezultă: 2a=1, de unde a = .
2
b) folosind densitatea de probabilitate avem:

1 x
e , d aă cx≤ 0
x 1 x − t  2
F(x) = ∫ ρ (t)d t= ∫ e d t= 
2 −∞  1 - 1 e − x , d aă cx> 0
−∞

 2
Dacă

1 x t 1 1 x

x
x ≤ 0, atunci şi t ≤ 0 iar F(x) = e dt = e t −∞
= e
2 −∞ 2 2
.
Dacă x>0, atunci F(x) =

1 0 t 1 x 1 1 1 −x
∫ e dt + ∫ e −t dt = + ( −e −t )
x
0
=1 − e .
2 −∞ 2 0 2 2 2
c) Folosind funcţia de repartiţie avem:
74 Elemente de teoria probabilităţilor şi statistică matematică

1 1 1 1 
P(0 < X < 2) = F(2) - F(0) = 1 - e −2 − = 1 − 2 
2 2 2 e 
.
A doua probabilitate este o probabilitate
condiţionată, deci

P( X < 0,−2 ≤ X ≤ 2)
P( X < 0 X ∈[ −2,2]) = P(X < 0 −2 ≤ X ≤ 2) = =
P( −2 ≤ X ≤ 2)

unde

1 1 −2 1  1 
P(−2 ≤ X < 0) = F(0) − F(−2) = − e = 1 − 2 
2 2 2 e 
1 1 1
P(−2 ≤ X ≤ 2) = F( 2) − F(−2) = 1 − e −2 = e −2 = 1 − 2
2 2 e
1
Se obţine: P(X < 0 X ∈[−2,2]) = .
2
Exemplul 1.10.6. Se consideră funcţia
f ( x ) = 3x 2 −1, x ∈[1,3] .

a) să se arate că f(x) nu este o densitate de


probabilitate.
b) să se modifice f(x) astfel încât noua funcţie
ρ( x ) să fie o densitate de probabilitate.
Elemente de teoria probabilităţilor 75

c) să se calculeze probabilitatea P(1 ≤ X ≤ 2) şi

 3
P X < .
 2

Rezolvare:
a) Analizând cele două condiţii ale unei densităţi
de probabilitate se obţine:
1) f ( x ) = 3x 2 −1 ≥ 0 dac ă x ∈[1,3]
3 3
2) ∫
1
f ( x )dx = ∫ (3x 2 −1)dx = 24 ≠ 1 , deci
1

f(x) nu este o densitate de probabilitate.


b) Dacă modificăm funcţia f(x), mai precis,

1 1
definim ρ( x ) = f (x) = (3x 2 −1), x ∈[1,3] , atunci
24 24
obţinem ρ( x ) care este o densitate de probabilitate.
c) Pentru a calcula probabilităţile cerute se poate
proceda în două moduri:
1) folosind funcţia de repartiţie F(x). Această
funcţie este:
76 Elemente de teoria probabilităţilor şi statistică matematică

 0 ,d aăc x < 1
1

F(x) =  (x 3 − x) ,d aăc x∈ [ 1 , 3 ]
24
 1 ,d aăc x > 3
De aici

1 1
P (1 ≤ X ≤ 2) = F(2) − F(1) = ( 2 3 − 2) =
24 4
 3 1  3 3 3  3  5
P X <  =   −  = F  =
 2  24  2 
 2  2  64

2) folosind densitatea de probabilitate ρ( x )


adică
2 1 1
P(1 ≤ X ≤ 2) = ∫ ρ( x )dx =
2
(x 3 − x) 1
=
1 24 4

 3 3 5
P X <  = ∫ 2 ρ( x )dx =
 2 1 64

1.11. Caracteristici numerice asociate


variabilelor aleatoare
Elemente de teoria probabilităţilor 77

Fie {E , K , P} un câmp de probabilitate şi


X : E → R o variabilă aleatoare. În afara informaţiilor
furnizate de funcţia de repartiţie F ( x) sau chiar de

repartiţia probabilistă (discretă ( pi ) sau continuă


( ρ(x) ) ale unei variabile aleatoare X, de un real folos
teoretic şi practic sunt şi informaţiile pe care le conţin
anumite caracteristici numerice (valoarea medie,
dispersia, abaterea medie pătratică sau diverse alte
momente) ale lui X despre această variabilă aleatoare.
Valoarea medie (speranţa matematică)
78 Elemente de teoria probabilităţilor şi statistică matematică

Definiţie 1.11.1.Fie variabila aleatoare X cu

 xi 
distribuţia
X  ,i ∈ I . Se numeşte valoare medie,

 pi 
caracteristica numerică M ( X) = ∑
i∈I
x i pi .

Observaţii 1.11.2.
1) Dacă I este finită, valoarea medie există.
2) Dacă I este infinit numărabilă, M(X) există
când seria care o defineşte este absolut convergentă.
Elemente de teoria probabilităţilor 79

Definiţie 1.11.3. Fie variabila aleatoare X de tip

x 
continuu
X  , x ∈ R . Se numeşte valoarea medie

 ρ (x) 
a variabilei X, caracteristica numerică
+∞
M(X) = ∫ x ρ(x)dx . Valoarea medie există atunci
−∞

când integrala improprie care o defineşte este


convergentă.
Proprietăţile valorii medii 1.11.4. Au loc
afirmaţiile :
1) M (a X + b) = a M(X) + b, ∀a, b ∈R
2) M(X + Y) = M(X) + M(Y)
3) X,Y independente ⇒ M(X Y) = M(X) M(Y)
80 Elemente de teoria probabilităţilor şi statistică matematică

Demonstraţie:
a) Fie variabilele aleatoare de tip discret X, Y

x  yj 
având repartiţiile X 
p  , Y 
i
q 
 i i∈I   j∈J
j

1. Avem

M ( aX + b) = ∑ (ax i + b) pi = ∑ ax i p i + ∑bp i = aM ( X ) + b
i∈I i∈I i∈I

 ax i + b 
dacă variabila aX + b are repartiţia aX + b 
 pi  i∈I

şi ∑p
i∈I
i =1.

2. Variabila X+Y are repartiţia

 xi + y j 
X +Y 
 p

 , pij = P ( X = xi , Y = y j )
 ij ( i , j )∈I ×J

Rezultă
Elemente de teoria probabilităţilor 81

M ( X +Y ) = ∑∑( xi + yi ) pij = ∑∑xi pij +∑∑y j pij =


i∈I j ∈J i∈I j∈J i∈I j∈J

= ∑xi pi + ∑y j q j = M ( X ) + M (Y )
i∈I j∈J

dacă s-au folosit relaţiile ∑p


i∈I
ij = q j şi ∑p
j∈J
ij = pi

3. Variabila XY are repartiţia

 xi y j 
XY 
p q

 dacă X şi Y sunt independente.
 i j ( i , j )∈I ×J

Avem

M ( XY ) = ∑∑xi y j pi q j = ∑xi pi ∑y j q j = M ( X ) M (Y )
i∈I j∈J i∈I j∈J

b) Presupunem ca X şi Y sunt variabile aleatoare


de tip continuu.
1. Dacă notăm prin Y = aX + b, a ≠ 0, atunci
conform teoremei 3.10.4. în cazul particular Y = aX + b,
a ≠ 0, se obţine că
82 Elemente de teoria probabilităţilor şi statistică matematică

x −b
ρX ( )
ρY ( x) = a , pentru orice x ∈ R.
a

Avem:

+∞ +∞
1 x −b
M ( aX + b) = M (Y ) = ∫ xρY ( x)dx =
−∞
a ∫ xρ
−∞
Y (
a
) dx

de unde prin schimbarea de variabilă u = (x – b)/a, dx =


adu, obţinem
+∞ +∞ +∞
M (aX + b) = ∫ (au + b) ρX (u )du =a ∫ uρX (u )du +b ∫ ρX (u )du = aM
−∞ −∞ −∞

2. Dacă notăm prin Z = X + Y, variabila care are


densitatea de probabilitate ρZ , iar densitatea de
probabilitate a vectorului (X, Y) o notăm prin ρ , atunci:
+∞ +∞ +∞
M ( X + Y ) = M (Z ) = ∫ sρZ ( x)dx = ∫ x( ∫ ρ(u, x − u )du )dx
−∞ −∞ −∞

Schimbăm ordinea de integrare, apoi schimbarea


de variabilă
x – u = t, dx = dt, şi obţinem
+∞ +∞ +∞ +∞
M ( X +Y ) = ∫ ( ∫ xρ(u, x − u )dx )du =
−∞ −∞
∫ ( ∫ (t + u ) ρ(u, t )dt )du =
−∞ −∞
Elemente de teoria probabilităţilor 83

+∞ +∞ +∞ +∞ +∞ +∞
= ∫ t ( ∫ ρ(u, t )du )dt + ∫ u ( ∫ ρ(u, t )dt )du = ∫ tρ
−∞ −∞ −∞ −∞ −∞
X (t )dt + ∫ uρZ (u
−∞

3. Dacă notăm prin V =X Y, care are densitatea


de probabilitate ρV , iar densitatea de probabilitate a
vectorului (X, Y) o notam prin ρ , atunci
+∞ +∞ +∞
x dx
M ( XY ) = M (V ) = ∫
−∞
xρV ( x ) dx = ∫ x ( ∫ ρ(u , )
−∞ −∞
u u
) dx

Schimbăm ordinea de integrare, apoi facem


schimbarea de variabilă x / u = t, dx = udt, şi
obţinem:
+∞ +∞ +∞ +∞
x x
M ( XY ) = ∫ ( ∫ ρ(u , )dx )du = ∫ ( ∫tu ρ(u , t )dt )du =
−∞ −∞
u u −∞ −∞

+∞ +∞ +∞ +∞
= ∫
−∞−∞
∫ tu ρX (u ) ρY (t )dtdu = ∫ uρX (u )du
−∞ −∞
∫ tρ Y (t ) dt = M ( X ) M (Y )

Dispersia
Definiţie 1.11.5. Se numeşte dispersia (varianţa)
variabilei aleatoare X, caracteristica numerică

[
D 2 (X) = M ( X − M (X) )
2
] iar σ(X) = D 2 (X) se
numeşte abatere medie pătratică.
84 Elemente de teoria probabilităţilor şi statistică matematică

În mod explicit, dispersia are expresia

D 2 ( X ) = ∑( xi − M ( X ) ) ⋅ pi , I ⊂ N , dacă X este o
2

i∈I

variabilă aleatoare discretă sau

D 2 ( X ) = ∫ ( x − M ( X ) ) ρ( x) dx ,
2
dacă X este o
R

variabilă aleatoare continuă.


Dispersia este un indicator numeric al gradului
de împrăştiere (sau de dispersare) a valorilor unei
variabile aleatoare în jurul valorii medii a acesteia.
Proprietăţile dispersiei 1.11.6.
a) D 2 (X ) = M ( X 2 ) −[ M ( X )] 2
b) D 2 (aX + b) = a 2 D 2 (X ), ∀a, b ∈R
c) X,Y independente
⇒ D 2 ( X + Y) = D 2 ( X) + D 2 (Y)

Demonstraţie:
a)

[ ] [
D 2 ( X ) = M ( X − M ( X )) = M X 2 − 2M ( X ) X + ( M ( X ))
2 2
]
= M ( X 2 ) − 2 M ( X ) M ( X ) + [ M ( X )] = M ( X 2 ) − [ M ( X )]
2 2
Elemente de teoria probabilităţilor 85

dacă s-a făcut un calcul formal.


b) Folosind proprietăţile valorii medii şi
definiţia dispersiei avem:
[ ] [
D 2 (aX + b) = M (aX + b − aM ( X ) − b) 2 = M a 2 ( X − M ( X ) )
[
= a 2 M ( X − M ( X ))
2
] = a D (X )
2 2

c) Dacă X, Y independente avem


M ( XY ) = M ( X ) M (Y ) . Calculăm

[
D2 ( X + Y ) = M ( X + Y − M ( X + Y )) = M ]
[( ( X − M ( X )) + (Y − M (Y ))
2

= M [( X − M ( X ) ) + ( Y − M (Y ) ) + 2( X − M ( X ) )( Y − M (Y ) ) ] =
2 2

= M [( X − M ( X ) ) ] + M [( Y − M (Y ) ) ] + 2 M ( X − M ( X ) ) M ( Y − M (Y ) )
2 2

= D 2 ( X ) + D 2 (Y )

dacă s-a ţinut seama că M ( X − M ( X ) ) = 0


Aplicaţia 1.11.7. Dacă X este o variabilă
aleatoare discretă

− 2 −1 0 1 2 3
X : 1 2 2 5 1 1
 
 12 12 12 12 12 12 
atunci deducem că:
86 Elemente de teoria probabilităţilor şi statistică matematică

1 2 2 5 1 1 1
M ( X ) = −2 −1 + 0 +1 + 2 +3 =
12 12 12 12 12 12 2
1 2 2 5 1 1
M (X 2) = 4 +1 + 0 +1 + 4 +9 =2
12 12 12 12 12 12
1 7
D 2 ( X ) = M ( X 2 ) − [ M ( X )] = 2 −
2
=
4 4
7
σ( X ) = D2 ( X ) =
2
Aplicaţia 1.11.8. Dacă X este variabilă aleatoare
continuă
 x
 x   , x ∈ [1,3]
X :
 ρ( x ) 
, ρ ( x) =  4
  
0, în rest
atunci deducem că:
3
3 x3 13
M ( X ) =∫ xρ( x ) dx = = ,
1 12 1
6

3
3 x4
M ( X 2 ) = ∫ x 2 ρ( x ) dx = =5
1 16 1

169 11
D 2 ( X ) = M ( X 2 ) − [ M ( X )] = 5 −
2
=
36 36
11
σ( X ) = D2 ( X ) =
6
Elemente de teoria probabilităţilor 87

Momente
Definiţie 1.11.9. Se numeşte moment iniţial
(obişnuit) de ordin k al variabilei aleatoare X,

caracteristica numerică σ k = M (X k )
Observaţie 1.11.10. Pentru k=1 avem
σ1 = M (X) iar pentru k=2, D 2 ( X ) = σ 2 − σ12

Dacă X este variabilă de tip discret având

 xi  = 1 atunci σ k = ∑xik pi
repartiţia X :   , ∑p i
 pi i∈I i∈I i∈I

Dacă X este variabilă de tip continuu

 x 
atunci σk = ∫ x ρ( x) dx
k
X :
 ρ( x) 

 x∈R R

Definiţie 1.11.11. Se numeşte moment centrat


de ordin k al variabilei aleatoare X, caracteristica
88 Elemente de teoria probabilităţilor şi statistică matematică

numerică [
µ k = M ( X − M(X) ) ,
k
] adică

∑ ( xi − M ( X ) ) k ⋅ pi , X discretă
 i∈ I
µk = 
∫ ( xi − M ( X ) ) ρ ( x)dx , X continuă
k

R
Observaţie 1.11.12. Pentru k=1 avem µ1 = 0 ,

iar pentru k=2, µ 2 = D 2 (X)


Teorema1.11.13. Între momentele centrate şi
momentele iniţiale există următoarea relaţie:

k
µ k = ∑( −1) i C ik σk −i σ1i .
i =0

Demonstraţie:
Avem

[ ] [ ]  k
µk = M ( X − M ( X ) ) k = M ( X − σ1 ) k = M  ∑Cki X k −i (−σ
 i=0
k  k k
= M ∑(−1)i Cki X k −iσ1i  = ∑(−1)i Cki M ( X k −i )σ1i = ∑(−1
 i=0  i=0 i =0
Elemente de teoria probabilităţilor 89

Observaţie 1.11.14. În statistica matematică se


utilizează de regulă primele patru momente centrate:
µ1 , µ2 , µ3 , µ4 .

Definiţie 1.11.15. Se numeşte momentul iniţial


de ordinul (r,s) al vectorului aleator (X,Y) caracteristica

numerică σrs = M (X Y ) , adică


r s

∑∑ xir y sj pij , ( X , Y ) discret


 i∈I j ∈ J
σ rs =  r s
∫ ∫x y ρ ( x, y )dxdy , (X, Y) continuu
R2
Definiţie 1.11.16. Se numeşte moment centrat
de ordin (r,s) al vectorului aleator (X,Y), caracteristica
numerică
[ ]
µ rs = M ( X − M (X)) r (Y − M ( Y) s , adică

∑ ∑ ( xi − M ( X ) ) r ( y j − M (Y ) ) s pij , ( X , Y ) disc
 i∈I j∈J
µ rs = 
 ∫ (∫x − M ( X ) ) ( y − M (Y ) ) ρ ( x, y )dxdy , (X, Y) cont
r s

 R2
Observaţie 1.11.17.
σ1 o = M ( X), σ0 1 = M ( Y), µ2 0 = D 2 ( X), µ0 2 = D 2 ( Y)
90 Elemente de teoria probabilităţilor şi statistică matematică

Corelaţie sau covarianţă


Definiţie 1.11.18. Se numeşte corelaţia sau
covarianţa variabilelor aleatoare X şi Y, caracteristica
numerică

C(X, Y ) = M[ ( X − M (X ) )( Y − M ( Y) ) ] adică C(X, Y) = µ11


Observaţie 1.11.19.
1)
C( X, Y ) = M ( XY ) − M ( X ) M ( Y ), C(X, Y) = σ11 − σ10 σ01

Dacă X, Y independente ⇒ C(X, Y) = 0 , dar


nu şi reciproc.
C( X , X ) = D2 ( X )

 m 
 ∑ i i ∑ j j  ∑∑aib j C ( X i , Y j ) ,
n m n
C a X , b Y  =
 i =1 j =1  i =1 j =1
oricare ar fi variabilele aleatoare Xi şi Yj şi oricare ar fi
constantele reale ai şi bj, 1 ≤ i ≤ m , 1 ≤ j ≤ n
C ( X , Y ) =C (Y , X ) , oricare ar fi X şi Y.

Definiţie 1.11.20. Se numeşte coeficient de


corelaţie relativ la variabilele aleatoare X şi Y
caracteristica numerică
Elemente de teoria probabilităţilor 91

C( X , Y )
r(X, Y)=
D (X) D 2 (Y)
2

Observaţie 1.11.21.
1) X, Y independente ⇒ r ( X, Y) = 0 reciproc
nu este adevărat;
2) Spunem că X,Y sunt necorelate dacă r(X,Y)
=0
Proprietăţi:
a) r ( X, Y ) ≤1

b) r ( X , Y ) = +1 ⇔Y = a X + b, a > 0
c) r ( X , Y ) = −1 ⇔Y = aX + b, a < 0
Observaţie 1.11.21. În practică se mai spune că:
1) X şi Y sunt pozitiv perfect corelate dacă
r ( X , Y ) =1 ;

2) X şi Y sunt negativ perfect corelate dacă


r ( X , Y ) = −1 ;

3) X şi Y sunt puternic pozitiv (sau negativ)


corelate dacă
0,75 ≤ r ( X , Y ) <1 (sau
−1 < r ( X , Y ) ≤ −0,75 );
92 Elemente de teoria probabilităţilor şi statistică matematică

4) X şi Y sunt slab pozitiv (sau negativ) corelate


dacă 0 < r ( X , Y ) < 0,25 (sau − 0,25 < r ( X , Y ) < 0 );
Marginile valorice decizionale fiind alese convenţional.
Aplicaţie 1.11.22. Fie (X,Y) un vector aleator
discret a cărui repartiţie probabilistă este dată de tabelul
de mai jos.
Calculaţi coeficientul de corelaţie r(X,Y).
Y
-1 0 1 2 pi
X
-1 1/6 1/12 1/12 1/24 9/24
0 1/24 1/6 1/12 1/24 8/24
1 1/24 1/24 1/6 1/24 7/24
qj 6/24 7/24 8/24 3/24 1
Rezolvare:
Pe baza formulelor corespunzătoare, deducem
imediat:
9 8 7 2 1
M ( X ) = −1 +0 +1 =− =−
24 24 24 24 12

9 8 7 16 2
M ( X 2 ) =1 +0 +1 = =
24 24 24 24 3
2 1 95
D( X 2 ) = M ( X 2 ) − [ M ( X )]2 = − =
3 144 144
Elemente de teoria probabilităţilor 93

6 7 8 3 8 1
M (Y ) = −1 +0 +1 +2 = =
24 24 24 24 24 3
6 7 1 3 26 13
M (Y 2 ) = 1 +0 +1 +4 = =
24 24 24 24 24 12
13 1 35
D (Y 2 ) = M (Y 2 ) − [ M (Y )] 2 = − =
12 9 36

 1 1 1 1   1 1 1 1
M ( XY ) = −1 ⋅  −1 + 0 +1 + 2  + 0 ⋅  −1 + 0 +1 + 2
 6 12 12 24   24 6 12 24
 1 1 1 1  5
+ 1 ⋅  −1 +0 +1 + 2 =
 24 24 6 24  24
5 1 17
C ( X , Y ) = M ( XY ) − M ( X ) M (Y ) = + =
24 36 72
17
C ( X ,Y ) 12
r ( X ,Y ) = = ≈ 0,295
D 2 ( X ) D 2 (Y ) 95 35

144 36
Observaţie 1.11.23. Coeficientul de corelaţie
r ( X ,Y ) reprezintă prima măsură a corelaţiei sau
gradului de dependenţă în sens clasic. Introdusă de către
statisticianul englez K. Pearson în anul 1901 ca rod al
colaborării acestuia cu antropologul englez F. Galton
94 Elemente de teoria probabilităţilor şi statistică matematică

(care a avut prima idee de măsurare a corelaţiei sub


denumirea de variaţie legată), această măsură a gradului
de dependenţă a fost criticată încă de la apariţiei ei pentru
diverse motive, printre care şi aceea că:
1) este dependentă de valorile
vectorului aleator ( X , Y ) şi ca urmare nu
este aplicabilă pentru cazul variabilelor
aleatoare necantitative;
2) nu este precisă în cazul
independenţei şi al necorelării deoarece dacă
r ( X , Y ) = 0 nu există un răspuns categoric

(în sensul independenţei sau necorelării);


3) nu poate fi extinsă la mai mult de
două variabile aleatoare sau chiar la doi sau
mai mulţi vectori aleatori, fapte cerute de
practică.
Dacă la prima obiecţie a dat chiar K. Pearson un
răspuns, pentru celelalte două obiecţii nu s-au dat
răspunsuri clare decât după apariţia în 1948 a teoriei
matematice a informaţiei, rezultate remarcabile în acest
Elemente de teoria probabilităţilor 95

sens obţinând şcoala românească de matematică sub


conducerea lui Silviu Guiaşu introducând măsurile
entropice ale dependenţei dintre variabile aleatoare şi
vectori aleatori (în anii 1974-1978) cu o largă
aplicabilitate teoretică şi practică.
În ciuda tuturor criticilor ce i s-au adus,
coeficientul de corelaţie clasic (sau coeficientul Galton-
Pearson) este cel mai frecvent utilizat în practică şi,
pentru că este cel mai simplu în utilizare.
Definiţie 1.11.24. Fiind dat vectorul aleator
Z = ( X 1 , X 2 ,..., X n ) Z : E → R n , se numeşte valoare

medie a acestuia şi se notează cu M (Z ) , dacă există,


vectorul n-dimensional ale cărui componente sunt
valorile medii ale componentelor lui Z adică:

M ( Z ) = M ( X 1 , X 2 ,..., X n ) = ( M ( X 1 ), M ( X 2 ),..., M ( X n ) )

.
96 Elemente de teoria probabilităţilor şi statistică matematică

Se numeşte matrice de covarianţă (sau de


corelaţie) a vectorului Z şi se notează prin C (Z ) , dacă

există, matricea C(Z ) = ( ci )ji= 1,n = ( C( X i ,Yj ) i, j= 1,n


j = 1,n
Observaţie 1.11.25.
a) Pentru cazul unui vector aleator
bidimensional, a nu se face confuzie între
media produsului componentelor X şi Y, care
este M ( XY ) şi media vectorului ( X , Y )
care este M ( X , Y ) .
b) Uneori matricea de corelaţie
C (Z ) se mai notează şi cu Γ(Z ) .

c) Desfăşurat matricea de covarianţă


C (Z ) are forma:

 D 2 ( X1 ) C ( X1, X 2 ) ... C ( X 1 , X n )  ν11 ν12 ...


  
C ( X 2 , X1) D2 ( X 2 ) ... C ( X 2 , X n )  ν 21 ν 22 ...
C (Z ) =   =  ... ...
... ... ... ... ...
  
C( X , X ) C( X , X )
 n 1 n 2 ... D ( X n )  ν n1 ν n2
2
...
Elemente de teoria probabilităţilor 97

şi ca urmare a proprietăţilor corelaţiei, constatăm că


matricea C (Z ) este simetrică.
d) Pornind de la definiţia coeficientului de
corelaţie şi de la matricea de corelaţie, dacă
toate componentele lui Z sunt neconstante,
atunci putem introduce matricea
coeficienţilor de corelaţie R (Z ) a cărei
formă dezvoltată este:
 1 r ( X1, X 2 ) ... r ( X 1, X n ) 
 
r ( X 2 , X1 ) 1 ... r( X 2 , X n ) 
R( Z ) =  
... ... ... ...
 
r( X , X ) r( X n , X 2 ) ... 1 
 n 1 
Ambele forme ale matricei de corelaţie a
vectorului aleatoriu Z reprezintă de fapt tabele ale
măsurării gradului de dependenţă dintre componentele lui
Z, considerate două câte două.
Aplicaţie 1.11.26. Fie variabilele aleatoare:
 −1 1  1 3 2 4
X1 : 
p 
 ; X 2 :  
 ; X3 : 
r 
 1 p2   q1 q2  1 r2 

a căror repartiţie comună notată ( pijk ) , 1 ≤i, j , k ≤ 2 ,


este:
98 Elemente de teoria probabilităţilor şi statistică matematică

1 1 1 3
p111 = ; p112 = ; p121 = ; p122 = ;
16 16 32 32
1 1 1 5
p211 = ; p212 = ; p221 = ; p222 = .
8 4 16 16
Să se determine repartiţiile bidimensionale şi
unidimensionale ale vectorului aleator tridimensional
Z = ( X 1 , X 2 , X 3 ) şi matricele de corelaţie C (Z ) şi
R (Z ) .

Rezolvare:
Avem imediat repartiţiile bidimensionale

 1 1
p = p + p
 1 1• 1 1 1 1 1 2 8 = p1 2• = p1 2 +1 p1 2 2= 
8
 3
;
3
 p2 •1 = p2 1 +1 p2 1 2= p2 2• = p2 2 +1 p2 2 2= 
 8 8
pentru ( X 1 , X 2 )
Elemente de teoria probabilităţilor 99

 3
 p1•1 = p111 + p121 = 32
 8
;
 p2•1 = p211 + p221 =
 16

5 
p1• 2 = p112 + p122 =
32  pentru ( X , X )
9 1 3
p2 • 2 = p212 + p222 = 
16 
 3
 p•11 = p111 + p211 = 16
 3
;
 p• 21 = p121 + p221 =
 32

5
p•12 = p112 + p212 =
32  pentru ( X , X )
13  2 3
p• 22 = p122 + p222 = 
32 
şi ca urmare putem scrie următoarele tabele de repartiţie
bidimensionale:
X2 X3 X3
1 3 pi 2 4 pi 2 4 qi
X1 X1 X2
100 Elemente de teoria probabilităţilor şi statistică matematică

-1 1/8 1/8 ¼ -1 3/32 5/32 1/4 1 3/16 5/16 1/2


1 3/8 3/8 ¾ 1 3/16 9/16 3/4 3 3/32 13/32 1/2
qj 1/2 1/2 1 rk 9/32 23/32 1 rk 9/32 21/32 1

din care se observă şi repartiţiile unidimensionale


(repartiţiile variabilelor aleatoare considerate X1, X2, X3).
Din aceste tabele deducem prin calcul imediat:
1 3
M ( X1) = ; M ( X 12 ) = 1 ; D 2 ( X 1 ) =
2 4
M ( X 2 ) = 2 ; M ( X 22 ) = 5 ; D 2 ( X 2 ) = 1

55 101 207
M (X3) = ; M ( X 32 ) = ; D2 ( X 3 ) =
16 8 256
M ( X 1 ⋅ X 2 ) = 1 ; M ( X 1 ) M ( X 2 ) =1 ; C ( X 1 , X 2 ) = 0 ;

r ( X1, X 2 ) = 0
29 55
M ( X1 ⋅ X 3 ) = ; M ( X1 )M ( X 3 ) = ;
16 32

3 3
C ( X1, X 3 ) = ; r ( X1, X 3 ) = ≈ 0,12
32 207
113 55
M (X2 ⋅ X3) = ; M ( X 2 )M ( X 3 ) = ;
16 8
3 3
C( X 2, X 3) = ; r( X 2 , X 3 ) = ≈ 0,21
16 207
Elemente de teoria probabilităţilor 101

şi ca urmare putem scrie matricele de corelaţie:


3 4 0 3 32 
 
C (Z ) =  0 1 3 16  şi
3 32 3 16 207 256 
 

 1 0 0,12 
 
R (Z ) =  0 1 0,21 
0,12 0,21 1 
 

constatând că X1 şi X2 sunt independente în timp ce între


X3 şi X1 sau X3 şi X2 există o anumită dependenţă chiar
dacă nu este puternică.
Alte caracteristici numerice
Definiţie 1.11.27. Se numeşte mediana unei
variabile aleatoare X, caracteristica numerică Me care
verifică relaţia:
1
P( X ≥ M e ) ≥ ≤ P( X ≤ M e )
2
Observaţie 1.11.28.
1. Dacă F este funcţia de repartiţie şi este

1
continuă atunci M e se determină din ecuaţia F(Me) =
2
.
102 Elemente de teoria probabilităţilor şi statistică matematică

a +b
2. Dacă M e ∈(a, b] atunci se ia M e =
2
Definiţie 1.11.29. Se numeşte valoare modală
sau modul a variabilei aleatoare X orice punct de maxim
local al distribuţiei lui X (în cazul discret) respectiv al
densităţii de probabilitate (în cazul continuu).
Observaţie 1.11.30. Dacă există un singur punct
de maxim local spunem că legea lui X este unimodală
altfel o numim plurimodală.
Definiţie 1.11.31. Se numeşte asimetria
(coeficientul lui Fischer) variabilei aleatoare X

µ3
caracteristica numerică definită prin s = .
σ3
Definiţie 1.11.32. Se numeşte exces al variabilei
aleatoare X, caracteristica numerică definită prin

µ4
e= − 3.
σ4
Observaţie 1.11.33.
1) Dacă e<0 atunci graficul distribuţiei are un
aspect turtit şi legea se numeşte platicurtică.
Elemente de teoria probabilităţilor 103

2) Dacă e>0 atunci graficul distribuţiei are un


aspect ascuţit şi legea va fi numită leptocurtică.
3) Dacă e = 0 atunci repartiţiile sunt
mezocurtice.
Definiţia 1.11.34. Dacă X este o variabilă
aleatoare cu funcţia de repartiţie F ( x) , se numesc
cuartile (în număr de trei) ale lui X (sau ale repartiţiei lui
X) numerele q1 , q2 şi q3 cu proprietăţile:

 1  1
 F (q1 ) ≤ 4  F ( q2 ) ≤ 2
 1  1
 F (q1 + 0) ≥  F ( q2 + 0) ≥
 4  2

 3
 F (q3 ) ≤ 4
 3
 F (q3 + 0) ≥
 4
Observăm că q2 = M e .
Exemplul 1.11.35. Se consideră variabila

 −1 0 2 
aleatoare X :  
.
0,2 0,3 0,5 
104 Elemente de teoria probabilităţilor şi statistică matematică

Să se calculeze: M(X), M(3X), M(4X-2),

D 2 ( X), σX .
Rezolvare:
3
M (X) = ∑ x i p i = −1 ⋅ 0,2 + 0 ⋅ 0,3 + 2 ⋅ 0,5 = 0,8
i =1

M (3X ) = 3M( X ) = 3 ⋅ 0,8 = 3,4 ;


M (4X − 2) = 4M ( X) − 2 = 4 ⋅ 0,8 − 2 = 1,2

D 2 (X ) = M (X 2 ) − [ M (X )] = 2,2 − 0,64 = 1,56 ;


2

M ( X 2 ) = ( −1) 2 ⋅ 0,2 + 0 2 ⋅ 0,3 + 2 2 ⋅ 0,5 = 2,2 ;

σX = D 2 ( X) = 1,56 = 1,24

Exemplul 1.11.36. Să se calculeze valoarea


medie şi dispersia variabilei aleatoare care are densitatea
de probabilitate

 1 − 1 − x , d aă cx∈ ( 0 , 2 )
ρ (x) = 
 0 a, l t f e l
Rezolvare:
Elemente de teoria probabilităţilor 105

 x, d aă c0 < x ≤ 1

Observăm că: ρ ( x ) =  2 - x d, aă 1c < x < 2
 0 a, l t f e l

Ţinând seama de definiţie avem:
+∞ 1 2 x3 x3
M (X ) = ∫ x ρ(x)dx = ∫ x 2 dx + ∫ x ( 2 − x )dx =
1 2 2
0
+ x2 1
− 1
=
−∞ 0 1 3 3
+∞ 1 2 x4 x3 x
M(X 2 ) = ∫ x 2 ρ( x )dx = ∫ x 3 dx + ∫ x 2 ( 2 − x )dx =
1 2
0
+2 1

−∞ 0 1 4 3
7 1
D 2 ( X ) = M ( X 2 ) − [ M ( X )] =
2
−1 =
6 6
Exemplul 1.11.37. Fie vectorul aleator (X,Y) cu
densitatea de probabilitate

 k(x + y + 1) x, ∈ [0,1] y, ∈ [0,2]


ρ ( x , y) =  Se cere:

 0, î nr e s t
a) să se determine constanta k;
b) să se determine densităţile marginale;
106 Elemente de teoria probabilităţilor şi statistică matematică

c) să se cerceteze dacă X şi Y sunt independente


sau nu;
d) să se calculeze coeficientul de corelaţie între
X şi Y.
Rezolvare:
a) din condiţiile ρ( x , y) ≥ 0 ⇒ k ≥ 0
+∞ +∞ 1 2
∫ ∫ −∞ −∞
ρ( x, y )dxdy = k ∫ dx ∫ ( x + y +1) dy =1 ⇒k =1 5
0 0

1
 (x + y + 1) , x∈ [ 0 , 1y ∈] [, 0 , 2 ]
Deci ρ ( x, y) =  5
 0 î, nr e s t
b)

+∞ 1 2 2x + 4
ρX ( x ) = ∫
5 ∫0
ρ( x , y)dy = ( x + y +1)dy = , x ∈[0,1]
−∞ 5

 2x + 4
 , x ∈ [0,1]
⇒ ρ X (x) =  5
 0, a l t f e l
Elemente de teoria probabilităţilor 107

+∞ 1 1 2y + 3
ρy ( y) = ∫ ρ( x , y)dx = ∫ ( x + y +1)dx = , y ∈[0,2]
−∞ 5 0 10

 2y + 3
 , y ∈ [0,2]
⇒ ρ Y ( y) =  1 0
 0, a l t f e l
c) X şi Y nu sunt independente deoarece:
ρ( x , y) ≠ ρX ( x ) ⋅ ρY ( y)

d)

+∞ +∞ +∞ 1 1
M(X) = ∫ ∫ xρ( x , y)dxdy = ∫
5 ∫0
xρX ( x )dx = x ( 2 x + 4)d
−∞ −∞ −∞

+∞ +∞ +∞ 1 2
M(Y) = ∫ ∫ ρ( x , y)dxdy = ∫ yρY ( y)dy = ∫ y( 2 y + 3)dy
−∞ −∞ −∞ 10 0

+∞ 1 1 2 11
σ2 ( X ) = M (X 2 ) = ∫ x 2 ρX ( x )dx = ∫ x ( 2 x + 4)dx =
−∞ 5 0 30
+∞ 1 2 8
σ2 (Y) = M (Y 2 ) = ∫ y 2 ρY ( y)dy = ∫ y 2 ( 2 y + 3)dy =
−∞ 10 0 15
11 64 37
D 2 ( X ) = M ( X 2 ) − [ M (X )] =
2
Deci − =
30 225 450
8 289 71
D 2 (Y) = M( Y 2 ) − [ M (Y)] =
2
− =
5 225 225
108 Elemente de teoria probabilităţilor şi statistică matematică

+∞ +∞ 1 1 2
M ( X ⋅Y ) = ∫ ∫ xy ρ(x, y)dxdy = ∫ dx ∫ xy ( x + y +
−∞ −∞ 5 0 0

1 1 2 14  9
=
5 ∫ 0
2 x + x dx =
3  15
⇒C ( X , Y ) = M ( XY ) − M ( X

9 8 12 −1
= − ⋅ =
15 15 15 225
.
Se obţine:

1

C( X ,Y ) 225
r( X ,Y ) = = = −0,02758
σ X ⋅σY 37 71

450 225
Exemplul 1.11.38. Se ştie că, dacă două
variabile aleatoare X şi Y sunt independente, atunci
coeficientul lor de corelaţie este nul. Reciproca nu este
adevărată. Iată un vector aleator discret (X,Y), în care X
şi Y sunt dependente şi totuşi r = 0 .

Y
-1 1 2
X
0

1 2 3
16 16 16
1

2
Elemente de teoria probabilităţilor 109

2 0 2
16 16

1 2 3
16 16 16

Rezolvare:
Calculăm repartiţiile marginale:
 0 1 2 
X :
6 16 ;
 4 16 6 16 

 −1 1 2 
Y :
4 16 
 4 16 8 16 

7 3 3
Avem: M (X) =1; M (X 2 ) = ; D 2 (X ) = ; σX =
4 4 2

5 3 10
M ( Y ) = 1; M (Y 2 ) = ; D 2 (Y ) = ; σY =
2 2 2

 − 2 −1 0 2 4 
X⋅Y: 1 2 6 4

3  , M(XY)=1

 16 16 16 16 16
110 Elemente de teoria probabilităţilor şi statistică matematică

M(X ⋅ Y) - M(X)M(Y) 1 −1
⇒ r= = =0
σ X ⋅ σY 3 10

2 2
Exemplul 1.11.39. Fie X o variabilă aleatoare
care are densitatea de probabilitate definită prin:

 0, x ∉ (0,2)
ρ ( x) =  .

 1/ 2, x ∈ (0,2)
a) Să se determine modulul şi mediana
b) Să se calculeze momentul de ordin k, σk ( x )
..
Rezolvare:
a) Conform definiţiei, M0 este valoarea pentru
care ρ( x ) → max . adică M 0 ∈(0,2) adică există o
infinitate de valori modale situate pe segmentul (0,2). Me

1
se determină din ecuaţia F ( M e ) = .
2
Elemente de teoria probabilităţilor 111

Cum

Me Me
F( M e ) = P( X < M e ) = ∫ ρ( x )dx = ⇒ M e = 1.
0 2
+∞ 1 2k
b) σk (X) = M (X k ) = ∫ −∞ x k ⋅ dx = .
2 k +1

1.12. Funcţia caracteristică. Funcţia


generatoare de momente
Definiţie 1.12.1. Fie câmpul de probabilitate
{E , K , P} şi variabilele aleatoare X şi Y definite pe E cu
valori reale. Se numeşte variabilă aleatoare complexă
Z = X + iY , i 2 = −1 , iar valoarea medie a acesteia
notată cu M (Z ) este dată de relaţia
M ( Z ) = M ( X ) + i M (Y ) dacă mediile M ( X ) şi
M (Y ) există.

Observaţie 1.12.2. Dacă X este o variabilă


aleatoare expresia eitX = cos tX + i sin tX , t ∈R
defineşte de asemenea o variabilă aleatoare şi
2
e itX =cos 2
tX +sin 2
tX =1
112 Elemente de teoria probabilităţilor şi statistică matematică

Definiţie 1.12.3. Fie X o variabilă aleatoare


reală. Se numeşte funcţia caracteristică a lui X o funcţie
ϕ : R →C dată de relaţia ϕ X (t ) = ϕ(t ) = M (eitX ) ,

care explicit poate fi scrisă sub forma

 ∑ pk eitx k , este de tip discret


 k ∈K
ϕ X (t ) =  itx
∫ e ρ ( x)dx , este de tip continuu
R
Propoziţia 1.12.4. Funcţia caracteristică are
următoarele proprietăţi:
1) ϕ(0) =1 şi ϕ(t ) ≤1, ∀t ∈R

2) Dacă Xj, j =1, m sunt variabile aleatoare


independente în totalitate cu funcţiile caracteristice

(ϕ X j
)
(t ) = ϕ j (t ), j =1, m , atunci funcţia caracteristică a

variabilei aleatoare sumă X = X 1 + X 2 + ... + X m este


m
ϕX (t ) = ϕ1 (t )ϕ2 (t ) ... ϕm (t ) = ∏ϕj (t )
j =1

3) Dacă Y = aX + b , a şi b ∈ R, atunci

ϕY (t ) = ϕX ( at )eitb
Elemente de teoria probabilităţilor 113

4) Dacă X admite momente iniţiale de orice


ordine atunci funcţia caracteristică admite derivate de
orice ordin şi are loc relaţia
1 (r )
σr ( X ) = M ( X r ) = ϕ X (0)
ir
Demonstraţie:
1) ϕ(0) = M (1) =1 şi

ϕ(t ) = ∑pk eitx k


≤ ∑pk e itx = ∑pk =1 dacă X
k ∈K k ∈K k ∈K

este de tip discret şi

ϕ(t ) = ∫e itx ρ( x ) dx ≤∫eitx ρ( x ) dx =∫ρ( x ) dx =1


R R R

dacă X este de tip continuu.


2) Având în vedere proprietăţile valorii medii,
putem scrie că
m m
ϕX (t ) = M (eitX ) = M (eitX ⋅ eitX ... eitX ) = ∏M (e ) = ∏ϕ j (t )
1 2 m
itX j

j =1 j =1

3) Tot ca urmare a proprietăţilor mediei avem:


ϕY (t ) = M (eitY ) = M (eitaX ⋅ eitb ) = eitbϕaX (t ) = eitbϕX ( at )
114 Elemente de teoria probabilităţilor şi statistică matematică

4) Observăm că

ϕ X( r ) (t ) = M ( X r eitx i r ) = i r M ( X r eitX ) şi rezultă

ϕ X( r ) (0) = i r M ( X r ) = i rσ r ( X )
Observaţie 1.12.5. Folosirea relaţiei de la
punctul 4) este recomandabilă doar atunci când
calcularea momentelor este mai comodă prin această
relaţie decât pornind direct de la definiţia acestora.
Aplicaţie 1.12.6.
 −1 0 1 
1) Dacă X : 
1 6 1 2 1 3 
 atunci
 

1 1 1 it 2eit + e −it + 3
ϕ(t ) = e −it + + e =
6 2 3 6
 x 
2) Dacă X :   , x ∈[0,1] atunci
2x 

1
2 − 2ix itx
ϕ(t ) = ∫ 2 xe itx dx = e
0
e2
Elemente de teoria probabilităţilor 115

 x 
3) Dacă X :  −x  , x ≥0 atunci
e 


1 + it
ϕ(t ) = ∫ e −x eitx dx =
0
1 +t2

Definiţie 1.12.7. Fie X o variabilă aleatoare


reală definită pe câmpul de probabilitate {E , K , P} . Se
numeşte funcţie generatoare de momente, dacă există,
funcţia G : R →R , dată de relaţia

G X (t ) = G (t ) = M (etX ) care explicit poate fi scrisă sub


forma

 ∑ pk etx k , X este de tip discret


 k ∈K
G (t ) =  tx
∫ e ρ ( x )dx , X este de tip continuu
R
cu condiţia existenţei expresiilor corespunzătoare.
Propoziţia 1.12.8. Funcţia generatoare de
momente are următoarele proprietăţi:
1) G (0) =1
2) Dacă Xj, 1 ≤ j ≤ m , sunt independente în
totalitate şi au funcţiile generatoare G j (t ) , j =1, m ,
116 Elemente de teoria probabilităţilor şi statistică matematică

atunci funcţia generatoare a variabilei aleatoare


X = X 1 + X 2 + ... + X m este
m
G X (t ) = ∏G j (t )
j =1

3) Dacă Y = aX + b , a şi b ∈ R, atunci
GY (t ) = G X (at ) ⋅ etb
4) Dacă X admite momente iniţiale de orice
ordin, atunci funcţia generatoare admite derivate de orice

ordin în punctul zero şi G X( r ) (0) = M ( X r ) = σ r ( X ) ,


r =1, 2, ...

Aplicaţie 1.12.9.
 −1 0 1 
1) Dacă X : 
1 6 1 12  atunci
 2 3

1 −t 1 1 −t 2e −t + e −t + 3
G (t ) = e + + e =
6 2 3 6
 x 
2) Dacă X :  −λx  , x ≥ 0 , λ > 0 atunci
λ e 

λ
G (t ) = λ∫ e −λx etx dx = , dacă t < λ
0
λ −t

iar în caz contrar nu există.


Elemente de teoria probabilităţilor 117

 k 
3) Dacă X :
C k p k q n −k 
 , p, q > 0 ,
 n k =0, n
p +q =1 , atunci
n
G (t ) = ∑Cnk p k q n − k etk = ( pe t + q ) n
k =0

G ' (t ) = npe t ( pe t + q ) n −1 ;

G '' (t ) = npe t ( pe t + q ) n −1 + n( n −1) p 2e 2t ( pe t + q ) n −2

G ' (0) = np = M ( X ) ; G '' (0) = n 2 p 2 + npq = M ( X 2 )

1.13. Repartiţii clasice


În teoria probabilităţilor şi în aplicaţiile acesteia
se întâlnesc clase de variabile aleatoare de tip discret.
Forma cea mai generală a unei variabile aleatoare
aparţinând unei clase se numeşte lege de probabilitate de
tip discret.
Repartiţii clasice discrete
Repartiţia binomială (Bernoulli) 1.13.1.
Spunem că variabila aleatoare discretă X
urmează legea binomială dacă repartiţia asociată ei are
forma
118 Elemente de teoria probabilităţilor şi statistică matematică

 k 
X :
 P ( n, k ) 
k n −k
k = 0, n , unde P( n, k ) = Cn p q
k
, iar
 
p ∈(0,1) , q =1 − p

Într-adevăr sunt îndeplinite condiţiile din definiţia unei


funcţii de probabilitate, adică avem:
1)

P ( n, k ) = Cnk p k q n −k ≥ 0 ( p > 0, q =1 − p > 0)

2)

∑C
k =0
k
n p k qn−k = ( p + q ) n = 1 ( p + q =1)

Observaţie 1.13.2. Repartiţia binomială este


generată de schema urnei cu două stări şi cu bila revenită
(schema urnei lui Bernoulli).
Teorema 1.13.3. Dacă X este o variabilă
aleatoare discretă ce urmează legea binomială, atunci:
M(X) = np şi D2(X) = npq.
Demonstraţie:
Din definiţia valorii medii avem:
n n
M ( X ) = ∑kP (n, k ) = ∑kC nk p k q n−k
k =0 k =0
Elemente de teoria probabilităţilor 119

Considerăm relaţia:

n
( pt + q ) n = ∑Cnk p k q n−k t k
k =0

pe care o derivăm în raport cu t şi obţinem:


n
(*) np ( pt + q ) n−1 = ∑kC nk p k q n−k t k −1 iar
k =0

pentru t=1
n
avem np = ∑kC n p q = M ( X )
k kq n −1

k =0

Pentru a calcula dispersia folosim formula de calcul:


D 2 ( X ) = M ( X 2 ) −[ M ( X )] 2

Derivăm în raport cu t relaţia (*)şi obţinem


n n
n(n −1) p 2 ( pt + q ) n−2 = ∑k ( k −1)Cnk p k q n−k t k −2 = ∑k 2C nk p k q n−k t
k =1 k =0

iar pentru t = 1, rezultă n (n - 1) p2 = M(X2) - M(X),


adică M(X2) = n2p2 - np2 + np = n2p2 + npq, iar dispersia
este D2(X) = n2p2 + npq - (np)2 = npq.
Observaţia 1.13.4. Funcţia caracteristică a unei
variabile aleatoare discrete X ce urmează legea binomială

este: ϕX (t ) = ( pe it + q ) n .Într-adevăr din calcul avem că:


120 Elemente de teoria probabilităţilor şi statistică matematică

n n n
ϕX (t ) = M (eitX ) = ∑eitk P(n, k ) = ∑eitk Cnk p k q n −k = ∑Cnk ( pe it ) k q n −
k =0 k =0 k =0

Observaţia 1.13.5. Calculul momentelor


σ k = M ( X k ), k = 1,2,... se poate face prin intermediul

funcţiei caracteristice astfel:


ϕ X( k ) (0)
σk = , k = 1,2,...
ik
Repartiţia hipergeometrică 1.13.6.
Spunem că variabila aleatoare X de tip discret
urmează urmează
legea hipergeometrică, dacă are distribuţia

 k  C k C n −k
X :   k = 0, n , unde P(n, k ) = a n b , iar n ≤ min( ab )
 P(n, k )  Ca + b

Verificarea condiţiilor unei funcţii de


probabilitate este imediată şi avem:
Cak Cbn−k
1)P(n,k)= > 0∀ k = 0, n
Can+b
n n
1
2) ∑ P ( n, k ) = ∑C Cbn−k = 1
k
a
k =0 Can+b k =0
Elemente de teoria probabilităţilor 121

dacă s-a avut în vedere relaţia lui Vandermonde şi anume

∑C
k =0
k
a Cbn−k = Can+b .

Teorema 1.13.7. Dacă X este o variabilă


aleatoare discretă ce urmează legea hipergeometrică
atunci:
N −n
M ( X ) = np şi D 2 ( X ) = npq
N −1
a b
unde N=a+b , p= , q= p + q =1 .
a +b a +b

Demonstraţie:
Conform relaţiei de definiţie a valorii medii
avem
n
1 n
M(X)= ∑kP (n, k ) = ∑kC ak Cbn−k =
k =0 Can+b k =0

a n
Can+−b1−1 a
=
Can+b
∑Cak−−11Cbn−k = a
k −1
n
Ca +b
=n
a +b
= np

dacă s-a avut în vedere relaţia lui Vandermonde şi relaţia


kC ak = aC ak−−11
122 Elemente de teoria probabilităţilor şi statistică matematică

Pentru a calcula dispersia, folosim formula de


calcul D 2 ( X ) = M ( X 2 ) −[ M ( X )] 2 unde

n n
1
M ( X 2 ) = ∑ k 2 P( n, k ) = ∑k 2
Cak Cbn−k =
k =0 Can+b k =0

a n
1  n n

Can+b
∑[k (k −1) + k ]C
k =0
k
a C n −k
b = n  ∑ k ( k − 1)Ca Cb + ∑ kC ak C
Ca+b  k =0
k n −k

k =0

dar k(k-1) Cak = a ( a −1)Cak−−22 iar k Cak = aC ak−−11


deci M

a n
a (a −1) n k −2 n−k
(X ) = n
2

Ca +b
∑C
k =1
k −1
C
a −1
n−k
b + ∑Ca−2 Cb =
Can+b k =2
=

a a( a −1) n−2 na a ( a −1)


Can+−b1−1 + Ca +b−2 = + n(n −1)
n
Ca +b n
Ca+b a +b ( a + b)( a + b −1)

dacă s-a avut în vedere relaţia lui Vandermonde. Se


obţine
Elemente de teoria probabilităţilor 123

n(n −1)a( a −1) n 2a 2


2
( X ) = M ( X 2 ) − [ M ( X )] 2 = − =
( a + b)( a + b −1) (a + b) 2

na b a +b −n N −n
= = npq
a + b a + b a + b −1 N −1
Repartiţia Poisson 1.13.8.
Spunem că variabila aleatoare X de tip discret
urmează legea lui Poisson, dacă are distribuţia
X:

 k  λk −λ
  k = 0,1,2,... unde P(λ) = e , iar λ > 0
 Pk (λ)  k!

Funcţia Pk (λ) satisface condiţiile unei funcţii de


probabilitate şi anume:
λk −λ
1)P k (λ) = e > 0 k = 0,1,2,...
k!
2)

+∞ +∞
λk +∞
λk
∑ P ( λ) = ∑ k ! e λ = e λ ∑ k ! = e λ e λ = 1
k =0
k
k =0
− −

k =0

124 Elemente de teoria probabilităţilor şi statistică matematică

+∞
xk
dacă s-a avut în vedere dezvoltarea ex = ∑ , x∈
k =0 k!
R
Teorema 1.13.9. Valoarea medie şi dispersia
variabilei aleatoare X ce urmează legea lui Poisson sunt
egale cu λ ,adică M(X)=D2(X)= λ .
Demonsraţie:
Avem
M(X)

+∞ +∞
λk +∞
λk −1
= ∑kPk (λ) = e −λ ∑k = λe −λ ∑ = λe −λ e λ = λ
k =0 k =0 k! k =1 ( k −1)!
Calculăm
M(X 2)=

+∞ +∞
λk −1
∑k 2 Pk (λ) = λe −λ ∑k
k =0 k =1 (k −1)!
=

+∞
λk  +∞ λk −1 +∞
λk −1 
λe −λ ∑[( k −1) +1] ∑
= λe −λ  ( k −1) + ∑ 
k =1 ( k −1)!  k =1 ( k −1)! k =1 (k −1)! 

Elemente de teoria probabilităţilor 125

+∞
λk −2 +∞
λk −1
λ2 e −λ ∑ + λe −λ ∑ = λ2 e −λ e λ +
k =2 ( k − 2)! k =1 ( k −1)!

λe −λ e λ = λ2 + λ
Obţinem
D 2 ( X ) = M ( X 2 ) − [ M ( X )] 2 = λ2 + λ − λ2 = λ.

Observaţia 1.13.10. Funcţia caracteristică


asociată unei variabile aleatoare X ce urmează legea lui
Poisson este
it
ϕX (t ) = e λ( e −1)
,t ∈R

Într-adevăr avem
+∞ +∞
λk +∞
(λeit ) k −λ λe it
ϕX (t ) = M (eitX ) = ∑eitk Pk (λ) = ∑eitk e −λ = e −λ ∑ e e
k =0 k =0 k! k =0 k!

Teorema 1.13.11. Dacă variabila aleatoare X


urmează legea binomială, adică are distribuţia
 k 
X:  
 k = 0, n unde P (n, k ) = Cnk p k q n−k
 P ( n, k ) 

şi dacă p=p n ,astfel încăt np u = λ > 0, atunci pentru n


→ ∞ ,X urmează legea lui Poisson, adică
126 Elemente de teoria probabilităţilor şi statistică matematică

n( n −1)...( n − k +1) λ k λ
lim P (n, k ) = lim ( ) (1 − ) n−k =
n →∞ n→∞ k! n k

λk n n −1 n − k +1 λ λ λk −λ
lim ... (1 − ) −k (1 − ) n = e
n→∞ k! n n n n n k!
Observaţia 1.13.12. Legea lui Poisson mai este
cunoscută şi sub numele de legea evenimentelor rare,
deoarece se întâlneşte în cazul evenimentelor cu
probabilitate de apariţie mică .
Repartiţia geometrică 1.13.13.
Spunem că variabilă aleatoare X urmează legea
geometrică, dacă are distribuţia:
 k 
X: 
 
 k=1,2,3,… unde p(k)=pq k −1
 P (K ) 
,k=1,2,3,…
Probabilitatea P(k) satisface condiţiile:
1) P(k)=pq k −1 > 0 , k=1,2,…
+∞ +∞
1
2) ∑ P (k ) = p ∑q = p
k −1
=1
k =1 k =1 1− q
unde am avut în vedere seria geometrică convergentă
Elemente de teoria probabilităţilor 127

+∞
1
∑q
k =1
k −1
=
1− q
(0 < q < 1)

Teorema 1.13.14. Dacă variabila aleatoare X


urmează legea geometrică atunci M(X)= 1 p şi D2(X)=
q p2 .
Demonstraţie:
Avem
+∞ +∞ +∞
M(X)= ∑kP (k ) = ∑kpq = p ∑kq k −1 =
k −1

k =1 k =1 k =1

q / p 1
p (1 + 2q + 2q 2 + ...) = p (q + q 2 + q 3 + ...) / = p ( ) = =
1− q (1 − q ) 2
p

.
Calculăm
M(X

+∞ +∞ +∞
2
) = ∑k 2 P( k ) = ∑k 2 pq k −1 = p ∑k 2 q k −1 =
k =1 k =1 k =1

=
p (1 + 2 2 q + 32 q 2 +...) = p ( q + 2q 2 + 3q 3 +...) / = p[ q (1 + 2q + 3q 2 +...)]
128 Elemente de teoria probabilităţilor şi statistică matematică

1 1+q 1+q
= p(q )/ = p= 2 .
(1 − q ) 2
(1 − q ) 3
p

Obţinem D

1+ q 1 1 + q −1 q
2
( X ) = M ( X 2 ) − [ M ( X )] 2 = 2
− 2 = 2
= 2
p p p p

.
Observaţia 1.13.15. Funcţia caracteristică
asociată unei variabile aleatoare X ce urmează legea
geometrică este:
pe it
ϕX (t ) = .
1 − qe it

Într-adevăr avem
+∞
p +∞
ϕ X (t ) = M (eitX ) = ∑eitk pq k −1 = ∑ (eit q ) k =
k =1 q k =1

pe it
= pe it (1 + qe it + ( qe it ) 2 +...) = qe it <1 .
1 − qe it

Repartiţia binomială cu exponent negativ


1.13.16.
Spunem că variabila aleatoare X de tip discret
urmează legea binomială cu exponent negativ , dacă are
distribuţia
Elemente de teoria probabilităţilor 129

 k 
X :
 P ( −n, k ) 
 n ∈N * k = n, n +1,...
 
unde P ( −n, k ) = C kn−−11 p n q k −n 0 < p <1 p + q =1

.
Sunt îndeplinite condiţiile unei funcţii de
probabilitate
1) P(-n,k)=C

n−1
k −1 p n q k − n > 0 , k = n, n + 1,... n ∈ N *
2)

+∞ +∞ +∞

∑P(−n, k ) = ∑C
k =n k =n
n −1
k −1 q k −n = p n ∑Ckn−−11q k −n = p n (1 − q ) −n = 1
k =n

dacă s-a ţinut seama de dezvoltarea lui Abel şi anume


(1+q)

+∞
n n( n +1) 2
−n
= ∑C kn−−11q k −n = 1 + q+ q + ... .
k =n 1! 2!
Teorema 1.13.17. Dacă X este o variabilă
aleatoare discretă care urmează legea binomială cu
130 Elemente de teoria probabilităţilor şi statistică matematică

exponent negativ atunci M(X)= n p şi


D 2 ( X ) = ( nq ) p 2 .

Demonstraţie:
Avem M(X)=

+∞ +∞

∑kC kn−−11 p n q k −n = p n q −n+1 ∑kC kn−−11q k −1 =


k =n k =n

qn nq n−1 n
=p q −n+1 ( n −n +1
n
) /
= p q = .
(1 − q ) n (1 − q ) n+1 p

Pentru calculul dispersiei folosim formula de calcul


D 2 ( X ) = M ( X 2 ) −[ M ( X )] 2 . Avem
+∞ +∞
M ( X 2 ) = ∑k 2Ckn−−11 p n q k −n = p n q −n+2 ∑k 2Ckn−−11q k −2 =
k =n k =n
+∞ +∞
= p n q −n+2 ∑[ k (k −1) + k ]Ckn−−11q k −2 = p n q −n+2 ∑k (k −1)Ckn−−11q k −2
k =n k =n
+∞
qn n
= p n q −n+2 (∑Ckn−−11q k ) // + M ( X ) = p n q −n+2 ( ) // + = p n q
k =n (1 − q ) n
p
nq n−2 [( n −1) p + ( n +1) q ] n n
= p n q −n+2 n +2
+ = 2 [( n −1) p + ( n +1)
(1 − q ) p p

Obţinem
Elemente de teoria probabilităţilor 131

n[ n − p + q ] n n 2 nq
D2 ( X ) = 2
+ − 2 = 2 .
p p p p

Observaţia 1.13.18. Funcţia caracteristică


asociată unei variabile aleatoare X ce urmează legea
binomială cu exponent negativ este:
n
 pe it 
ϕX (t ) =  
 .
 1 − qe
it

Într-adevăr
+∞
ϕ X (t ) = M (eitX ) = ∑eitk Ckn−−11 p n q k −n =
k =n
+∞ +∞
= ∑Ckn−−11 p n (qe it ) k −n eitn = ∑Ckn−−11 ( pe it ) n (qe it ) k −n =
k =n k =n
n
+∞
 pe it 
= ( pe ) it n
∑C n −1
k −1
it k − n
(qe ) it k − n
= ( pe ) = ( pe ) (1 − (qe ))
it n it −n
=  
 1 − qe
it
k =n 
Repartiţii continue
Repartiţia uniformă(rectangulară) 1.13.19.
Spunem că variabila aleatoare X urmează legea
uniformă pe intervalul [a,b],dacă are densitatea de
probabilitate
132 Elemente de teoria probabilităţilor şi statistică matematică

 1
 , dac ă x ∈[ a, b]
ρ( x ) = b − a

 0 , dac ă x ∉[ a, b]

Observaţia 1.13.20. Din graficul funcţiei


densitate de probabilitate se constată că într-adevăr
ρ(x ) , astfel definită, satisface condiţiile unei funcţii
densitate de probabilitate
1) ρ( x) ≥ 0 , ∀ x ∈R

+∞ b
1
2) ∫ ρ( x)dx = ∫
−∞ a
b −a
dx =1

ρ( x)

1
b −a

0 a b x

Observaţia 1.13.21. Funcţia de repartiţie a


variabilei aleatoare ce urmează legea uniformă are
expresia:
Elemente de teoria probabilităţilor 133

 0 ,x ≤a

 x −a
F(x)=  b − a , x ∈ (a, b]

 1 ,x >b

Într-adevăr:
x x

- dacă x ≤ a F ( x) = ∫ ρ(t )dt = ∫ 0dt = 0


−∞ −∞

- dacă

x a x
1 x −a
x ∈( a, b] F ( x ) = ∫ ρ(t )dt = ∫ 0dt + ∫
−∞ −∞ a
b −a
dt =
b −a

- dacă

x a b x
1
x > b , F ( x) = ∫ ρ(t )dt = ∫ 0dt + ∫
−∞ −∞ a
b −a ∫
+ 0dt =1
b

Graficul funcţiei de repartiţie are forma:

F ( x)

1
134 Elemente de teoria probabilităţilor şi statistică matematică

0 a b x

Teorema 1.13.22. Dacă X este o variabilă


aleatoare uniform repartizată pe intervalul [a,b]
Atunci:
M ( X ) = ( a + b) 2 şi D 2 ( X ) = (b + a ) 2 12 .

Demonstraţie:
Avem

+∞ +∞
1 1 b2 − a2 a + b
M (X ) = ∫ xρ( x)dx =
−∞
b − a −∫∞
xdx =
b −a 2
=
2

Dispersia o calculăm folosind formula de calcul


D 2 ( X ) = M ( X 2 ) −[ M ( X )] 2

Avem
+∞ +∞
1 a 2 + ab + b 2
M ( X ) = ∫ x ρ( x)dx =
b − a −∫∞
2 2
x 2
dx ==
−∞
3
a 2 + ab + b 2 a + b 2 (b − a ) 2
rezult ă D 2 ( X ) = −( ) =
3 2 12
M ( X ) = ( a +b) 2 , avem valoarea mediană egală cu
valoarea medie .
Observaţia 1.13.23.
Elemente de teoria probabilităţilor 135

a)Din simetria graficului funcţiei densitate de


probabilitate, în raport cu valoarea medie
M ( X ) = ( a +b) 2 , avem valoarea mediană egală cu
valoarea medie.
b)Tot cu ajutorul graficului se observă că
valoarea modală nu există.
Repartiţia exponenţială negativă 1.13.24.
Spunem că variabila aleatoare X urmează legea
exponenţială de parametru λ > 0 , dacă are densitatea de
probabilitate:
λe −λx , dacă x > 0
ρ ( x) = 
 0 , dacă x ≤ 0

Evident această funcţie satisface condiţiile:


1) ρ( x) ≥0 ∀ x ∈R

+∞ +∞ +∞

∫ ρ( x)dx = ∫ λe dx = −e Ι =1
−λx −λx
2) 0
−∞ 0

Observaţia 1.13.25. Funcţia de repartiţie pentru


variabila aleatoare X ce urmează legea exponenţială de
parametru λ > 0 este:
136 Elemente de teoria probabilităţilor şi statistică matematică

 0 , dac ă x ≤0

F ( x ) =

1 −e
−λx
dac ă x >0

Teorema 1.13.26. Dacă variabila aleatoare X


urmează legea exponenţială de parametru λ > 0 ,atunci:
M ( X ) =1 λ şi D 2 ( X ) =1 λ2 .

Demonstraţie:
Avem
+∞ +∞
1
∫ xρ( x)dx = λ ∫ xe dx =
−λx
M (X ) = .
−∞ 0
λ

Calculăm:
+∞ +∞
M (X 2) = ∫ x ρ( x)dx = ∫x λe −λx =
2 2

−∞ 0
+∞ +∞ +∞
1 +∞ 2 2 1
= λ ∫ x 2 (− e −λx )′dx = −x 2 e −λx Ι + 2 ∫ xe −λx dx =
λ ∫
xλe −λx
dx =
0
λ 0
0 0
λλ

Obţinem

2 1 1
D 2 ( X ) = M ( X 2 ) − [ M ( X )]2 = − 2 = 2 .
λ λ
2
λ
Observaţia 1.13.27.
Elemente de teoria probabilităţilor 137

a)Funcţia caracteristică asociată unei variabile


aleatoare X ce urmează legea exponenţială are expresia

λ
ϕX (t ) =
λ − it
Într-adevăr avem
+∞ +∞ +∞
e
∫e ρ( x) dx = ∫ e λe dx = λ ∫ e −( λ−it ) x dx = λ
−λx
ϕX (t ) = M (e itX
)= itx itx

−∞ 0 0

b)Deoarece avem

λ k!i k
ϕX( k ) (t ) = k =1,2,...
(λ − it ) k +1

ϕ X( k ) (0) k!
folosind relaţia σ k = ⇒ σ k = k k = 1,2,...
i k
λ
Repartiţia normală 1.13.28.
Spunem că variabila aleatoare X urmează legea
normală (legea lui Gauss)de parametri
m ∈R şi σ >0 , N ( m, σ)) dacă are densitatea de
probabilitate
( x − m) 2
1 −
ρ ( x) = e 2σ 2
, ∀ x∈R
σ 2π
În mod evident avem:
138 Elemente de teoria probabilităţilor şi statistică matematică

1) ρ( x) > 0 , ∀ x ∈R , σ >0

2)

+∞ +∞ ( x −m ) 2 +∞
1 − 2
∫−∞ρ( x)dx = σ 2π ∫e ∫e
−t 2
2σ 2
dx = dt = 1
−∞ π 0

dacă s-a făcut schimbarea de variabilă

x −m
t= , dx = σ 2dt .
σ 2

Teorema 1.13.29. Dacă X este o variabilă


aleatoare ce urmează legea normală de parametri m ∈ R
şi
σ >0 atunci M ( X ) =m şi D 2 ( X ) =σ2 .

Demonstraţie:
Avem
+∞ +∞ ( x −m )2
1 −
M ( X ) = ∫ xρ ( x) dx = ∫ xe 2σ 2
dx .
−∞ σ 2π −∞

Se face schimbarea de variabilă

x −m
t= , dx = σ 2 dt .
σ 2

Rezultă
Elemente de teoria probabilităţilor 139

+∞ +∞ +∞
1 2m σ 2
σ 2 ∫ (m + σ 2t )e −t dt = ∫ e dt + ∫ te
2 2
−t −t 2
M (X ) = d
σ 2π −∞ π 0 π −∞
+∞ +∞ ( x −m ) 2
1 −
D ( X ) = ∫ ( x − m) ρ( x )dx =
2 2
∫ ( x − m)
2
e 2σ 2
dx =
−∞ σ 2π −∞
+∞ +∞ +∞
4σ 2 2σ 2 2σ 2 +∞ 2σ 2
∫ t e dt = − ∫ t (e )′dt = − ∫e
2 2 2
2 −t −t −t 2
= 2
te −t Ι + dt =
π 0 π 0 π 0 π 0

Deci cei doi parametri de care depinde


distribuţia normală sunt valoarea medie şi abaterea medie
pătrată asociată variabilei aleatoare X ce urmează legea
normală.
Observaţia 1.13.30. Curba ce reprezintă
graficul densităţii de probabilitate ρ se numeşte curba
lui Gauss(sau clopotul lui Gauss).

ρ(x
1 )
σ 2π

0 m−σ m m+σ x
140 Elemente de teoria probabilităţilor şi statistică matematică

Analiza acestui grafic ne conduce la concluziile:


− funcţia ρ este simetrică faţă de dreapta
de ecuaţie x=m
− în x=m funcţia admite un maxim egal cu
1 σ 2π

− punctele de abscisă x =m −σ şi x =m +σ

sunt puncte de inflexiune.


Observaţia 1.13.31. Dacă variabila aleatoare X
urmează legea normală N ( m, σ) ,atunci funcţia de
repartiţie F este dată de relaţia
x (t − m ) 2
1 −
F ( x) =
σ 2π ∫e
−∞
2σ 2
dt ∀∈ R

şi are graficul

F ( x)
1

1
2
Elemente de teoria probabilităţilor 141

0 m x

Dacă se face schimbarea de variabilă


(t − m) σ = u se obţine

x −u x −m
σ u2 0 u2 σ u2
1 − 1 − 1 −
F(X ) =
2π ∫
−∞
e 2
du =
2π ∫e
−∞
2
du +
2π ∫
0
e 2
du

x t2
1 x−m 1 −
⇒ F ( X ) = + Φ(
2 σ
) unde φ ( x) = ∫
2π 0
e 2 dt , ∀x ∈ R

este funcţia lui Laplace. Funcţia lui Laplace are valorile


tabelate pentru argumente pozitive .Dacă x<0 atunci
Φ( x ) = −Φ( −x ).

Observaţia 1.13.32. Dacă parametrii m şi σ au


valorile 0 respectiv 1, atunci spunem că X urmează legea
normală şi normată sau legea normală redusă.
142 Elemente de teoria probabilităţilor şi statistică matematică

Teorema 1.13.33. Dacă X este o variabilă


aleatoare ce urmează legea normală N ( m, σ) ,

m ∈R şi σ > 0 iar a, b ∈R , a <b, atunci

b−m a−m
P ( a < X < b) = φ ( ) −φ( ) unde m = M (X ) σ 2 = D2 ( X )
σ σ
Demonstraţie:
Avem
1 b −m 1 a −m
P ( a < X < b) = F (b) − F ( a ) = [ + φ( )] −[ +φ( )
2 σ 2 σ
b −m a −m
= φ( ) −φ ( )
σ σ
Repartiţia gamma 1.13.34.
Spunem că variabila aleatoare X urmează legea
gamma cu parametri a,b>0 dacă are densitatea de
probabilitate
 x
 1 −
 x a −1
e b
, dacă x > 0
ρ ( x) = Γ(a )b a


 0 , dac ă x ≤ 0
Elemente de teoria probabilităţilor 143

unde Γ(a ) este funcţia lui Euler de speţa a doua, adică

+

∫x
a −1
Γ( a ) = e −x dx .
0

Evident sunt îndeplinite condiţiile:


1) ρ( x) ≥0 ∀ x ∈R
+∞

2) ∫ ρ( x)dx =1
−∞

În cazul particular a =1, b =1 λ

Observaţia 1.13.35. Funcţia de repartiţie a unei


variabile aleatoare ce urmează legea gamma are expresia
x y
1 −
∫y
a −1
F ( x) = e dy b
, x >0
Γ(a )b a 0

cunoscută sub denumirea de funcţia gamma incompletă.


Observaţia 1.13.36. Funcţia caracteristică
asociată unei variabile aleatoare ce urmează legea gamma

1
are expresia ϕX (t ) = , t ∈R
(1 − itb ) a

Într-adevăr
144 Elemente de teoria probabilităţilor şi statistică matematică

+∞ +∞ x
1 −
ϕX (t ) = M (e itX
) = ∫ e ρ( x)dx =
itx
∫e
itx
x a −1
e b
dx =
−∞
Γ(a )b a 0
+∞ 1 +∞
1 −( −it ) x 1 b
∫x ∫y
a −1 a −1 − y
= e b
dx = ( )a e dy
Γ(a )b a 0
Γ(a )b 1 − itb
a
0

dacă s-a făcut schimbarea de variabilă (1 b −it ) x = y


Momentele de ordin k, σ k = M ( X ) se obţin
k

folosind relaţia
ϕ X( k ) (0)
σk = k
= b k ( a + 1)(a + 2)...(a + k − 1) ∀ k = 1,2,...
i
În particular , găsim
M ( X ) =ba , M ( X 2 ) =b 2 a ( a +1) şi apoi D 2 ( X ) =M ( X 2 ) −[ M ( X )] 2 =

Repariţia beta 1.13.37.


Spunem că variabila aleatoare X urmează legea
beta cu parametri a,b>0, dacă are densitatea de
probabilitate
 1
 x a −1 (1 − x) b−1 , dac ă x ∈[0,1]
ρ( x) = B ( a, b)

 0 , dac ă x ∉[0,1]

unde B(a,b)este funcţia lui Euler de speţa întâi, adică


Elemente de teoria probabilităţilor 145

1
B (a, b) = ∫ x a −1 (1 − x )b −1 dx
0

cunoscută sub numele de funcţia beta incompletă.


Evident sunt îndeplinite condiţiile:
1) ρ( x) ≥0, ∀ x ∈R
2)

+∞ 1
1 B ( a, b)
∫ ρ( x)dx =
−∞

B( a, b) 0
x a −1 (1 − x) b−1 dx =
B ( a, b)
=1

Observaţia 1.13.38. Funcţia de repartiţie


asociată unei variabile ce urmează legea beta are
expresia:

 0 ,x < 0
 1 x a −1
∫1 t (1 − t ) dt ,
b −1
F ( x) =  x ∈[0,1]
 B ( a , b )
 1 , x >1

Observaţia 1.13.39. Expresia momentelor de
ordin k pentru o variabilă aleatoare cu repartiţia beta, se
obţine prin calcul direct şi anume:
146 Elemente de teoria probabilităţilor şi statistică matematică

+∞ 1
1
σk = M ( X k ) = ∫ x ρ( x)dx = ∫ x k x a −1 (1 − x) b−1 dx =
k

−∞
B ( a, b) 0
1
1 B ( a + k , b) a ( a +1)...( a + k −
= ∫
B ( a, b) 0
x a +k −1 (1 − x ) b−1 dx =
B (a, b)
=
(a + b)( a + b +1)...( a + b

În particular se obţine

a a (a + 1)
M ( X ) = σ1 = , M ( X 2 ) = σ2 =
a +b ( a + b) 2 (a + b + 1)
ab
şi D 2 ( X ) = M ( X 2 ) − [ M ( X )] 2 =
(a + b) 2 ( a + b + 1)

Repartiţia χ2 (hi-pătrat) 1.13.40


Spunem că variabila aleatoare X urmează legea
χ2 (hi-pătrat), dacă are densitatea de probabilitate:
 +∞ n x
 1 −1 −


 n n ∫ x2 e 2σ 2
dx , dac ă x > 0
ρ( x) = Γ( )σ n 2 2 0

 2


 0 , dac ă x ≤ 0

unde σ > 0 ,iar n ∈ N şi poartă numele de numărul


gradelor de libertate.
În mod evident avem:
Elemente de teoria probabilităţilor 147

1) ρ( x) ≥0 ∀ x ∈R

2)

n
+∞ +∞ x +∞ n Γ(
22σ n
n
1 −1 −1
∫ ρ( x)dx = ∫x ∫t
−t
n
2
e 2σ 2
dx = n
2
e dt =
n n n 2 Γ(
−∞
Γ( )σ n 2 2 0
Γ( )σ 2 0
2 2
dacă s-a făcut schimbarea de variabilă
t = x 2σ 2 .

Observaţia 1.13.41. Legea χ2 numită şi legea


Helmert-Pearson este un caz particular al legii gamma,
anume, pentru a =n 2 şi b = 2σ 2 .
Observaţia 1.13.42. Expresia momentelor de
ordin k pentru o variabilă aleatoare X având repartiţia
χ2 (hi-pătrat) se obţine astfel:
148 Elemente de teoria probabilităţilor şi statistică matematică

n x
+∞ +∞ −1 − 2 +∞ n x
k 2σ
x x e 2
1 − 2
σ k = ∫ x ρ ( x) dx = ∫
k
n
dx = n ∫
x 2+k −1
e 2σ
dx =
n n
−∞ 0
Γ( )σ 2n
n 2
Γ( )σ 2n 2 0

2 2
n
Γ( + k )
2 n n n
2 σ
k 2k
= 2 k σ 2 k ( + 1)...( + k − 1) = σ 2 k n( n + 2)( n + 4)
n 2 2 2
Γ( )
2
În particular se obţine
M ( X ) = σ 1 = nσ 2 , M ( X 2 ) = σ 2 = n(n + 2)σ 4 respectivD 2 ( X ) = σ 2 − σ 12 =
Observaţia 1.13.43. Funcţia de repartiţie
asociată unei variabile aleatoare X ce urmează legea χ2
(hi-pătrat)este de forma
F ( x) = P ( X < x) = P( χ 2 < χq2 ) = F ( χq2 ) =
x q2 n x
1 −

n
n ∫x 2 −1
e 2σ 2
dx = 1 − P ( χ 2 > χq2 ) = 1 − q
Γ( )σ n 2 2 0
2
Elemente de teoria probabilităţilor 149

unde q sunt probabilităţi de forma

+∞ n x
1 −1 −
q = P( χ > χ ) = ∫x
2 2 2σ 2
q n
2
e dx
n
Γ( )σ n 2 2 x q2
2
şi ele au semnificaţia prezentată în desenul

F ( x) = F ( x 2 )

q = P ( x 2 > xq )

0 xq2 e = x2

Karl Pearson a editat tabele pentru funcţia de


repartiţie corespunzătoare unei variabile aleatoare ce
urmează distribuţia χ2 .
Repartiţia Student(Gosset) 1.13.44.
150 Elemente de teoria probabilităţilor şi statistică matematică

Spunem că variabila aleatoare X urmează legea


Student cu n grade de libertate, dacă are densitatea de
probabilitate
n +1
Γ( ) n+1
2 x2 − 2
ρ ( x) = (1 + ) , pentru x∈R
n n
nπ Γ( )
2
Sunt verificate condiţiile unei densităţi de
probabilitate, adică
1) ρ( x ) ≥0∀ x ∈R în mod evident
 n +1 
+∞ Γ+∞  n +1
x2 −
2) ∫ ρ( x)dx = ∫ 
2 
(1 + ) 2 dx =
−∞
n
−∞ nπ Γ( )
n
2
n +1 n +1
2Γ( ) +∞ 2 −n +1 Γ( ) 1 n −1
2 x 2
n ∫ ∫
= (1 + ) 2
dx = y 2 dy =
n n
nπ Γ( ) 0 π Γ( ) 0
2 2
n +1 n +1 n 1
Γ( ) Γ( )Γ( )Γ( )
2 n 1 2 2 2 =1
= B( , ) =
n n n + 1
π Γ( ) 2 2 π Γ( )Γ( )
2 2 2
Elemente de teoria probabilităţilor 151

dacă s-a făcut schimbarea de variabilă y =1 (1 + x 2 n)


şi s-au folosit relaţiile

Γ( a )Γ(b) 1
B ( a, b) = , Γ( ) = π
Γ( a +b) 2

Observaţia 1.13.45. Dacă n=1, atunci densitatea

1
de probabilitate capătă forma ρ ( x) = , x∈R ,
π (1 + x 2 )

adică se obţine densitatea de probabilitate


corespunzătoare repartiţiei Cauchy standard.
Observaţia 1.13.46. Întrucât densitatea de
probabilitate este o funcţie pară, valoarea medie a unei
variabile aleatoare ce urmează legea Student este nulă.
De asemenea momentele obişnuite de ordin impar sunt
nule.
Pentru momentele obişnuite de ordin par avem:
152 Elemente de teoria probabilităţilor şi statistică matematică

n +1
+∞ +∞ Γ( ) n +1
2 x2 −
σk = σ2 p = ∫ x 2 p ρ( x)dx = ∫ x 2 p (1 + ) 2 dx =
n n
−∞ −∞ nπ Γ( )
2
n +1 n +1
2Γ( ) +∞ 2 n +1 n p Γ( ) 1 n − p −1 1
2 x −
2 p+ −

n ∫0 n ∫0
= x 2p
(1 + ) 2
dx = y 2
(1 − y ) 2

nπ Γ( ) 2 π Γ( )
2 2
n +1 n 1
n p Γ( ) n p Γ( − p )Γ( p + )
n
2 B ( − p, p + ) = 1 2 2
=
n 2 2 n
π Γ( ) π Γ( )
2 2

unde s-a făcut schimbarea de variabilă y =1 (1 + x 2 n).


De aici pentru p=1 avem
n 1
nΓ ( − 1)Γ (1 + )
σ 2 = D2 ( X ) = 2 2 = n , dacă n ≥ 2
n n−2
π Γ( )
2
Repartiţia Fisher-Snedecor(repartiţia Fs)
1.13.47.
Spunem că variabila aleatoare X urmează legea
Fisher-Snedecor dacă are densitatea de probabilitate
Elemente de teoria probabilităţilor 153

 r +s r
 Γ( ) r s −1
 2 x 2
 r s
2 2
r +s
, dacă x ≥ 0
ρ ( x) =  Γ( r )Γ( s )
 2 (rx + s ) 2
2


 0 , dacă x < 0

unde s,r>0.
Sunt verificate condiţiile unei densităţi de
probabilitate adică
1) ρ( x) ≥0 ∀x ∈R în mod evident
2)

r +s r
+∞ +∞ Γ( ) r s −1
2 x 2

∫ ρ( x)dx = ∫0 r s r s 2 2
r +s
dx =
−∞ Γ( )Γ( ) ( rx + s ) 2
2 2
r +s r s
Γ( ) 1 r −1 s
−1
B( , )
2 2 2 =1
s ∫
= y 2 (1 − y ) 2 dx =
r r s
Γ( )Γ( ) 0 B( , )
2 2 2 2
unde s-a făcut schimbarea de variabilă y = rx (rx + s ).
Observaţia 1.13.48. Pornind de la definiţia
momentului de ordin k, avem:
154 Elemente de teoria probabilităţilor şi statistică matematică

r s r
+∞ +∞ −1
r 2s2 x2
σ k = M ( X k ) = ∫ x k ρ( x)dx = ∫x
k
r +x
dx =
r s
−∞ B( , ) 0
(rx + s ) 2
2 2
r s
+∞ r s B( + k , − k ) Γ(
sk 1 −k −1 −k −1 sk 2 2 s
= k
r B( r , s ) ∫y 2
(1 − y 2
) dy = k
r r s
= ( )k
r
0 B( , )
2 2 2 2
Particularizând pe k se obţine
s s2 r +2
σ1 = M ( X ) = ,s > 2 ,σ 2 = M ( X 2 ) = ,s > 4
s −2 r ( s − 2)( s − 4)
2 s 2 ( s + r − 2)
respectiv D2 ( X ) = ,s > 4
r ( s − 2) 2 ( s − 4)

1.14. Şiruri de variabile aleatoare.


Legea numerelor mari. Teoreme limită.
Definind noţiunea de variabilă aleatoare, se
constată fără dificultate că nu se poate şti înaintea
efectuării unei experienţe care vor fi valorile pe care le
poate lua variabila aleatoare asociată experienţei. Cu o
anumită probabilitate se poate spune dacă va apare sau nu
una dintre valorile acestei variabile aleatoare. Cu toate
acestea, aşa cum se poate vedea pe baza unor teoreme
Elemente de teoria probabilităţilor 155

devenite deja celebre, se demonstrează că în condiţii


puţin restrictive media aritmetică a unui număr suficient
de mare de variabile aleatoare îşi pierde caracterul
aleator. În practica statistică un astfel de rezultat teoretic
este remarcabil. Acesta este reprezentat de câteva
teoreme ale calculului probabilităţilor cunoscute
împreună sub denumirea de lege a numerelor mari.
Termenul de lege a numerelor mari a fost folosit
prima dată de către matematicianul francez D. Poisson în
1837 deşi, cu mai bine de un secol mai devreme,
matematicianul elveţian J. Bernoulli, unul dintre
fondatorii calculului probabilităţilor, pusese în evidenţă
acţiunea legii numerelor mari cu o referire la repartiţia
normală. În anul 1867 matematicianul rus P. Cebîşev a
prezentat riguros matematic legea numerelor mari în
condiţii generale, ocazie cu care inegalitatea lui Cebîşev
s-a dovedit un rezultat remarcabil şi extrem de util.
Inegalitatea lui Cebîşev 1.14.1. Dacă variabila
aleatoare X are o valoare medie şi dispersie atunci
∀ε > 0 are loc inegalitatea
156 Elemente de teoria probabilităţilor şi statistică matematică

D 2 (X)
P( X − M (X ) < ε) ≥ 1 − sau inegalitatea
ε2

D2 ( X )
echivalentă cu aceasta P ( X − M ( X ) ≥ ε ) ≤ .
ε2
Demonstraţie:
Presupunem că X este o variabilă aleatoare de
tip continuu, având densitatea de probabilitate ρ( x) .
Atunci
+∞
D2 ( X ) = ∫ ( x − M ( X )) ρ( x)dx ≥ ∫ ( x − M ( X )) 2 p ( x)dx
2

−∞ D

unde D = {x / x −M ( X ) } ≥ ε , deoarece
x −M ( X ) ≥ε , avem că ( x − M ( X )) 2 ≥ ε . Deci, avem

∫ ( x − M ( X )) ρ( x)dx ≥ ε 2 ∫ ρ( x) dx = ε 2 P ( X − M ( X ) ≥ ε )
2

D D

Am obţinut că D 2 ( X ) ≥ε2 P ( X − M ( X ) ≥ε) , rezultă


D2 ( X )
P( X − M ( X ) ≥ ε ) ≤
ε2
Elemente de teoria probabilităţilor 157

Folosind probabilitatea evenimentului contrar se obţine şi


cealaltă formă a inegalităţii:

D2 ( X )
P( X − M ( X ) < ε ) = 1 − P( X − M ( X ) ≥ ε ) ≥ 1 −
ε2
Definiţie 1.14.2. Spunem că şirul de variabile

aleatoare ( X n ) n ≥1 converge în probabilitate la variabila

aleatoare X şi notăm X n → X dac ă ∀ε > o avem

lim P( X n − X < ε) = 1 .
n →∞

Definiţie 1.14.3. Spunem că şirul de variabile


aleatoare (X n ) n ≥1 converge în medie de ordin k la
variabila aleatoare X şi notăm
k
X n →
mk
X dacă lim M ( X n − X ) = 0 .
n →∞

Definiţie 1.14.4. Spunem că şirul de variabile


aleatoare (X n ) n ≥1 converge în repartiţie la variabila

aleatoare X şi notăm X n 
→ X dacă lim Fn ( x ) = F( x )
r
n →∞

unde Fn şi F sunt funcţiile de repartiţie ale variabilelor


158 Elemente de teoria probabilităţilor şi statistică matematică

aleatoare Xn şi X, iar convergenţa are loc pentru orice


punct de continuitate x ∈ R al funcţiei F.
Observaţie 1.14.5.
1) X n  m → X ⇒ X n p→ X ⇒ X n r → X
k

2) X n r → a , a ∈ R ⇒ X n p → a
Definiţie 1.14.6. Spunem că şirul de variabile
aleatoare (X n ) n ≥1 urmează legea numerelor mari dacă
pentru orice ε > 0 avem

1 n 1 n 
lim P ∑X k − ∑ M ( X k ) < ε  = 1 adică
n →∞
 n k =1 n k =1 

1 n 1 n
∑ k n∑
n k =1
X −
k =1
M(X k ) 
→p
0.

Teorema lui Markov 1.14.7. Dacă şirul


(X n ) n ≥1 de variabile aleatoare verifică condiţia

1 2 n 
lim 2
D  ∑ X k  = 0 atunci acesta urmează legea
n →∞ n
 k =1 
numerelor mari.
Demonstraţie:
Elemente de teoria probabilităţilor 159

Folosind inegalitatea lui Cebîşev pentru

1 n
variabila X = ∑ X k avem pentru ∀ ε > 0,
n k =1

1 n 1 n 
1 ≥ P ( X − M ( X ) < ε ) = P ∑ X k − ∑ M ( X k ) < ε  ≥ 1 − 2 2 D 2
1
 n k =1 n k =1  n ε

şi prin trecere la limită se obţine că ∀ ε > 0

1 n 1 n 
lim P ∑ X k − ∑ M ( X k ) < ε  = 1 .
n →∞
 n k =1 n k =1 
Teorema lui Cebîşev 1.14.8. Dacă şirul
(X n ) n ≥1 de variabile aleatoare independente două câte

două, au dispersiile egal mărginite (adică D 2 (X n ) ≤ L -


finit) atunci şirul urmează legea numerelor mari.
Demonstraţie:
Avem

1 2 n  1 n
1 n
L
2
D ∑ Xk  = 2 ∑ D2(X k ) ≤ ∑L= n →0 când
n  k =1  n k =1 n2 k =1
160 Elemente de teoria probabilităţilor şi statistică matematică

n → ∞ şi conform teoremei lui Markov rezultă că


( X n ) n≥1 urmează legea numerelor mari.
Observaţie 1.14.9.Dacă

1 n 
M ( X k ) = m, k ≥ 1 ⇒ lim P ∑ X k − m < ε  = 1 .
n →∞
 n k =1 
Acest rezultat explică de ce, în practică, putem
face afirmaţii asupra unei populaţii statistice pe baza unei
selecţii sau a unui sondaj având un volum de observaţii
mic în raport cu acela al întregii populaţii. Explicaţia are
la bază faptul că selecţia implică un număr de măsurători
suficient prin el însuşi. Din acest punct de vedere se
apreciază că teorema lui Cebîşev se află la baza teoriei
selecţiei şi afirmaţia nu este exagerată.
De asemenea, rezultă că între comportarea
fiecărei variabilei aleatoare şi a mediei aritmetice a
acestora există o mare deosebire în sensul că deşi nu
putem preciza ce valoare va lua fiecare dintre variabilele
aleatoare considerate, suntem în măsură să afirmăm cu o
Elemente de teoria probabilităţilor 161

probabilitate apropiată de unu ce valoare va lua media


aritmetică a acestor variabile aleatore. Aşadar, media
aritmetică a unui număr suficient de mare de variabile
aleatoare cu dispersii mărginite îşi pierde caracterul de
variabilă aleatoare.
Teorema lui Poisson 1.14.10. Dacă într-un şir
de repetări independente ale unui experiment
probabilitatea apariţiei unui eveniment A la repetarea de
rang n este pn atunci

m 1 n 
lim P − ∑ p k < ε  = 1, ∀ε > 0, şi unde m este
n →∞
 n n k =1 
numărul apariţiilor lui A în primele n repetări.
Demonstraţie:
Considerăm Xk variabila care indică apariţia
evenimentului A la repetarea de rang k a experimentului
0 1 
Xk
q 
 unde p k = P ( A) ,
 k pk 

q k =1 − p k =1 − P ( A) = P ( A)

Variabilele Xk sunt independente două câte două


şi au dispersiile egal mărginite.
162 Elemente de teoria probabilităţilor şi statistică matematică

D 2 ( X k ) = M ( X k2 ) − [ M ( X k )] = p k − p k2 = p k (1 − p k ) = p k q k ≤ 1
2

n
, iar m = ∑ X k şi conform teoremei lui Cebîşev rezultă
k =1

că şirul ( X n ) n ≥1 urmează legea numerelor mari.


Teorema lui Bernoulli 1.14.11. Dacă într-un şir
de repetări independente ale unui experiment
probabilitatea apariţiei unui eveniment A este p la fiecare

m 
repetare, atunci lim P − p < ε
 = 1, ∀ε > 0, unde m
n →∞ 
 n 

reprezintă numărul apariţiilor lui A în primele n repetări


ale experimentului.
Teorema lui Liapunov 1.14.12. Fie şirul de
variabile aleatoare independente (X n ) n ≥1 pentru care
există momentele centrate de ordinul trei µir , i ≥ 1, r ≤ 3

3 µ13 + µ 23 + ... + µ n 3
şi lim = 0 , atunci
n →∞
D 2 ( X 1 ) + D 2 ( X 2 ) + ... + D 2 ( X n )

şirul de variabile aleatoare ( Z n ) n ≥1 unde


Elemente de teoria probabilităţilor 163

n n

∑ X k − ∑ M (X k )
Zn = k =1 k =1
, converge în repartiţie la o
n

∑D
k =1
2
(X k )

variabilă aleatoare ce urmează legea normală N(0,1)

1 x −t
2

adică lim
n →∞
Fn ( x ) =

∫ −∞
e 2
dt , ∀x ∈ R .

Observaţie 1.14.13.
1) Problema limită este problema determinării
legii de probabilitate a variabilei aleatoare Zn, când
n→ ∞ .
2) Teorema limită este teorema care rezolvă o
problemă limită.
3) Dacă legea de probabilitate limită este legea
normală atunci avem teorema limită centrală.
Teorema Lindeberg-Levy 1.14.14. Dacă şirul
de variabile aleatoare independente (X n ) n ≥1 sunt
identic repartizate (urmează aceeaşi lege de probabilitate)
164 Elemente de teoria probabilităţilor şi statistică matematică

şi există

(
m = M (X n ), σ2 = D 2 (X n ), µ3 = M X n − M (X n ) , n = 1,2,3,...
3
)
atunci şirul de variabile aleatoare

1 n
∑Xk − m
n k =1
( Z n ) n ≥1 unde Z n = , converge
σ
n
în repartiţie la o variabilă aleatoare ce urmează legea
normală redusă N(0,1) adică

1 x −t
2

lim Fn ( x ) =
n →∞

∫ −∞
e 2
dt , ∀x ∈ R .

Teorema Moivre – Laplace 1.14.15. Dacă


variabila aleatoare X urmează legea binomială, adică

P(n,k)=P(X=k)= C kn p k q n −k , k = 0, n , p+q=1, atunci


pentru a<b avem
Elemente de teoria probabilităţilor 165

 X − np  1 b 2
−x 2
lim P a ≤ < b = ∫ e dx sau
n →∞  
 npq  2π a

 X − np  1 b 2
−x 2
P a ≤ < b ≅ ∫ e dx .
 npq  2π a
 

Demonstraţie:
Fie variabilele aleatoare Xk, k =1, n

0 1
independente şi identic repartizate Xk
q 
 p
k =1, n

n
atunci X = ∑ X k , M ( X k ) = p , D 2 ( X k ) = pq şi
k =1

conform teoremei 3.15.14 avem că variabila


1 n n

∑Xk − p
n k =1
∑X k − np
X − np
Zn = = k =1
= urmează
pq npq npq
n

legea N(0,1)dacă n→ ∞.
 X −np  1 x
Avem lim P <x= ∫e
−t 2 / 2
dt şi
n →∞  npq  2π −∞
 

prin urmare
166 Elemente de teoria probabilităţilor şi statistică matematică

 X − np    X − np   X − np 
lim P a ≤ < b  = lim P < b  − P < a 
n →∞   n→∞  npq   npq 
 npq      
1 b 1 a 1 b
∫ ∫ ∫
2 2 2
= e −x / 2 dx − e −x / 2 dx = e −x / 2 dx
2π −∞
2π −∞
2π a

Observaţie 1.14.16.
1) Deoarece X=k, k=1,2,…,n se obişnuieşte să
se scrie
 k − np  1 b 2
−x 2
P a ≤ < b ≅ ∫ e dx .
 npk  2π a
 

2) Folosind funcţia lui Laplace

1 x −t
2

Φ(x) =

∫ 0
e 2
dt avem

 k − np 
Pa ≤ < b  ≅ Φ( b ) −Φ(a ) .
 npq 
 

b − np   a − np    
3) P( a ≤ k < b ) = Φ 
− Φ
 
 npq   npq 

Exemplul 1.14.17. Fie variabila aleatoare X


având repartiţia

 1 2 3 4 5 6 
X:
0,05 . Să se
 0,10 0,25 0,30 0,20 0,10 

Elemente de teoria probabilităţilor 167

determine valoarea exactă a probabilităţii


P ( X −M ( X ) <2 ) precum şi o margine inferioară a
acesteia.
Rezolvare:
Valoarea exactă se obţine astfel:
6
M (X) = ∑ x k p k = 1 ⋅ 0,05 + 2 ⋅ 0,10 + 3 ⋅ 0,25 + 4 ⋅ 0,30 + 5 ⋅ 0,20 + 6 ⋅ 0,10
k =1

( )
P X − M ( X ) < 2 = P( − 2 < X − M ( X ) < 2) = P ( − 2 + M ( X ) < X < 2 + M ( X
= P (1,80 < X < 5,80 ) = P ( ( X = 2) ∪ ( X = 3) ∪ ( X = 4) ∪ ( X = 5) ) =
= 0,10 + 0, 25 + 0,30 + 0,20 = 0,85

Pentru marginea inferioară se aplică inegalitatea lui


Cebîşev cu ε = 2 .
D 2 ( X) = M ( X 2 ) − [ M ( X)] = 16 ,10 −14 ,44 = 1,66
2

M (X 2 ) = 12 ⋅ 0,05 + 2 2 ⋅ 0,10 + 3 2 ⋅ 0,25 + 4 2 ⋅ 0,30 + 5 2 ⋅ 0,20 + 6 2 ⋅ 0,10 = 16

Deci P( X − M (X ) < ε) ≥ 1 −
1,66
= 0,585
4
Exemplul 1.14.18. Se efectuează 800 de probe
independente. În 200 din ele probabilitatea apariţiei unui
rezultat aşteptat a fost 0,5; în 400 de probe această
probabilitate a fost 0,4; iar în restul probelor a fost 0,3.
Să se determine marginea inferioară a probabilităţii ca
168 Elemente de teoria probabilităţilor şi statistică matematică

abaterea absolută a frecvenţei relative de apariţie a


evenimentului de la media probabilităţilor să nu
depăşească 0,04.
Rezolvare:
Se aplică teorema lui Poisson pentru n=800 şi
ε = 0,04 .
ν 1 n  1 n
P − ∑p k < ε  ≥ 1 − 2 2 ∑p q k k adică
 n n k =1  n ε k =1

 8 1 ∞  200 ⋅ 0,5 ⋅ 0,5 + 400 ⋅ 0,4 ⋅ 0,6 + 200 ⋅ 0,3 ⋅ 0


P − ∑ p k < 0,04  ≥ 1 −
800 2 − (0,04) 2
 800 800 k =1 
Exemplul 1.14.19. Se cunoaşte că o unitate de
desfacere a produselor alimentare poate deservi zilnic un
număr de 3000 clienţi. Ştiind că un client care intră în
unitate devine cumpărător cu probabilitatea p=0,7 să se
calculeze probabilitatea ca:
a) numărul cumpărătorilor să fie
cuprins între 1800 şi 2400;
b) numărul cumpărătorilor să fie mai
mic decât 2150;
Elemente de teoria probabilităţilor 169

c) ce stoc zilnic trebuie asigurat astfel


încât riscul de a rămâne clienţi fără produs să fie de 3 ‰.
Rezolvare:
a)Numărul cumpărătorilor X este o variabilă
aleatoare ce urmează legea binomială cu parametrii
n=3000 şi p=0,7. Se cunoaşte că M(X)=np=2100 iar
D 2 ( X ) = npq = 630 .

Folosind inegalitatea lui Cebîşev obţinem:


630
P( X − 2100 < ε) ≥ 1 − , ∀ε > 0
ε2
sau
6300
P( 2100 − ε < X < 2100 + ε ) ≥ 1 −
ε2
Dacă se ia ε = 300 rezultă

630
P(1800 < X < 2400 ) ≥ 1 − = 1 − 0,007 = 0,993
90000
De asemenea, se poate folosi teorema Moivre-Laplace
adică:
170 Elemente de teoria probabilităţilor şi statistică matematică

P (1800 < X < 2400 ) ≅ Φ 2400 − 2100   1800 − 2100 


 − Φ
 300 
 = 2Φ =
 630   630   630 
= 2Φ(11,95 ) = 2 ⋅ 0,15 = 1

b) Folosim din nou teorema Moivre-Laplace şi


avem:
 2150 − 2100   2100 
P ( X < 2150 ) = P ( 0 ≤ X < 2150 ) ≅ Φ  − Φ − =
 630   630 
 50   2100 
= 2Φ  + Φ  = 0,5 + 0,4767 = 0,9767
 630   630 

c) Fie s stocul zilnic. Vor rămâne clienţi fără


produse dacă X>s, adică P(X>s)=0,003;
dar

1  s − m  1  s − 2100 
P ( X > s ) = 1 − P ( x ≤ s ) = 1 − F(s ) = 1 −  + Φ  = − Φ 
2  σ  2  630 

 s − 2100  1 s − 2100
⇒ Φ  = − 0,003 ⇒ = 2,75
 630  2 630

deci s=2170.
Exemplul 1.14.20.Se consideră şirul de
variabile aleatoare (X n ) n ≥1 , unde
Elemente de teoria probabilităţilor 171

 −n − ( n − 1) ... − 1 0 1 ... n −1 n

Xn :  1 1 1 1 1 1
 3n 3 p
 3(n − 1) 3 3 3 3(n + 1) 3 3n 3
.
Să se verifice dacă şirul de variabile aleatoare se
supune legii numerelor mari.
Rezolvare:
2 1 1 
p = 1 − 1 + 3 + ... + 3 , M (X n ) = 0,
3 2 n 

2 1 1
M ( X 2n ) = 1 + + ... + 
3 2 n

2 1 1
D 2 (X ) = M (X 2n ) − [ M ( X n )] =
2
1 + + ... + 
3 2 n

1 2 n  1 n
Calculăm lim 2
D  ∑ X k  = lim 2 ∑D 2
(X k ) =
n →∞ n
 k =1  n →∞ n k =1

2 n  1 1 2 n 2 n
= lim ∑ 1 + + ... +  ≤ lim ∑ (1 + ln k ) ≤ lim ∑ (1 + ln
n → ∞ 3n 2 k =1 2 k  n →∞ 3n 2 k =1 n →∞ 3n 2
k =1
2 1 dx 1  n 
= lim ⋅ n (1 + ln n ) = 0 dar 1 + ≤ 1 + ∫1k ⇒ lim D2 ∑ X  =
n →∞ 3n 2 2 x n →∞ n 2  k 
k = 1 

şi conform teoremei lui Markov şirul urmează legea


numerelor mari.
172 Elemente de teoria probabilităţilor şi statistică matematică

Exemplul 1.14.21. Fie şirul de variabile


aleatoare (X n ) n ≥1 independente, care au distribuţiile

− n 0 n
X n :  1 1  , atunci şirul urmează legea
 p0 
 n n 
numerelor mari.
Rezolvare:
Avem M (X n ) = 0 iar
1 1
D 2 (X n ) = M(X 2n ) = n ⋅ + 0p 0 + n ⋅ = 2 dacă
n n

n≥2 iar D 2 (X 1 ) = 0 . Prin urmare


D 2 ( X n ) ≤ 2, ∀n ≥1 adică dispersiile sunt egal mărginite

şi conform teoremei lui Cebîşev avem că şirul considerat


urmează legea numerelor mari.

1.15. Exerciţii rezolvate


1.Un student solicită o bursă de studii la 3
universităţi. După trimiterea actelor necesare, acesta
poate obţine bursă de la universitatea i (Ui) sau nu (U i ) ,
Elemente de teoria probabilităţilor 173

1 ≤ i ≤ 3 . Scrieţi evenimentele ce corespund


următoarelor situaţii :
a)primeşte o bursă ;
b)primeşte cel mult o bursă ;
c)primeşte cel puţin o bursă ;
d)primeşte cel puţin două burse.
Rezolvare:
a) Bursa primită poate fi de la prima universitate,
caz în care celelalte nu-i acordă bursă, sau de la a doua,
caz în care prima şi a treia nu-i acordă bursă, sau de la a
treia, caz în care primele două nu-i acordă bursă. Avem
astfel evenimentul
A = (U 1 ∩U 2 ∩U 3 ) ∪(U 1 ∩U 2 ∩U 3 ) ∪(U 1 ∩U 2 ∩U 3 )

.
b)Avem două variante : studentul nu primeşte
nici o bursă sau studentul primeşte o bursă. Obţinem
evenimentul
B = (U 1 ∩U 2 ∩U 3 ) ∪ A .

c) Evenimentul poate fi scris ca reuniunea a trei


evenimente : studentul primeşte o bursă, două burse, trei
174 Elemente de teoria probabilităţilor şi statistică matematică

burse. Astfel C = A∪ E ∪ F , unde


E = (U 1 ∩U 2 ∩U 3 ) ∪(U 1 ∩U 2 ∩U 3 ) ∪(U 1 ∩U 2 ∩U 3 ) ,

iar F = U1 ∩U 2 ∩U 3 .
d)Avem D = E ∪ F . Altfel, evenimentul D este
contrar evenimentului B, deci
D = B = (U 1 ∩U 2 ∩U 3 ) ∪ A .
2.Într-un grup de studenţi aflaţi în excursie se
găsesc 6 fete şi 9 băieţi. Se aleg la întâmplare doi studenţi
pentru a cerceta traseul. Care este probabilitatea ca cei
doi să fie :
a)băieţi ;
b)fete ;
c)un băiat şi o fată ;
d)cel puţin un băiat ;
e)primul băiat şi a doua fată ;
f)de acelaşi sex.
Rezolvare:
Notăm cu A1 şi A2 evenimentele alegerii unui
băiat la prima, respectiv a doua alegere. La primul punct
Elemente de teoria probabilităţilor 175

avem de calculat probabilitatea P( A1 ∩ A2 ) . Întrucât a


doua alegere depinde de prima avem :
9 8 12
P ( A1 ∩ A2 ) = P ( A1 ) P ( A2 A1 ) = ⋅ = ,
15 14 35
deoarece alegând un băiat mai rămân în grup 14 studenţi
între care 8 băieţi. Evenimentul de la punctul b) se scrie
astfel : B = A1 ∩ A2 . Deci
6 5 1
P ( B ) = P( A1 ∩ A2 ) = P( A1 ) P ( A2 A1 ) = ⋅ = .
15 14 7

Evenimentul de la punctul c) este


C = ( A1 ∩ A2 ) ∪( A2 ∩ A1 ) aşadar
P (C ) = P ( A1 ∩ A2 ) + P ( A2 ∩ A1 ) , ( A1 ∩ A2 , A2 ∩ A1

sunt incompatibile)
9 6
Dar P ( A1 ∩ A2 ) = P ( A1 ) P( A2 / A1 ) = ⋅ ,
15 14
6 9
iar P ( A2 ∩ A1 ) = P ( A1 ) P ( A2 / A1 ) = ⋅
15 14
9 6 18
de unde P(C ) = 2 ⋅ ⋅ = .
15 14 35
176 Elemente de teoria probabilităţilor şi statistică matematică

Am obţinut şi probabilitatea evenimentului de la


punctul e) P( A1 ∩A2 ) . Evenimentul de la punctul d) se
exprimă astfel : D = A1 ∪ A2 .
El este contrar evenimentului : B = A1 ∩ A2 ,
prin urmare
1 6
P ( D) =1 − P( B) =1 − = . Evenimentul de
7 7
la ultimul punct f) este
F = ( A1 ∩ A2 ) ∪( A1 ∩ A2 ) . Cum
( A1 ∩ A2 ) ∩( A1 ∩ A2 ) = Φ cele două evenimente sunt
incompatibile şi deci
12 1 17
P ( F ) = P ( A1 ∩ A2 ) + P( A1 ∩ A2 ) = + =
35 7 35
.
3.La un examen de licenţă participă mai mulţi
absolvenţi, între care numai trei din străinătate.
Probabilitatea ca primul student să promoveze este ¾,
probabilitatea ca al doilea să promoveze este 4/5, iar
pentru al treilea 5/6. Să se determine probabilităţile ca :
a)toţi cei trei studenţi să promoveze;
Elemente de teoria probabilităţilor 177

b)cel puţin unul să promoveze examenul.


Rezolvare:
Fie Ai evenimentul promovării examenului de
către studentul i, i=1,2,3. Evenimentul de la punctul a)
este A = A1 ∩ A2 ∩ A3 , iar de la punctul b) este
B = A1 ∪ A2 ∪ A3 . Evenimentele Ai sunt independente

(rezultatele celor 3 studenţi nedepinzând unul de


celelalte), deci
3 4 5 1
P ( A) = P ( A1 ) P ( A2 ) P ( A3 ) = ⋅ ⋅ = .
4 5 6 2
Folosind proprietăţile probabilităţii avem :
P ( B ) = P ( A1 ∪ A2 ∪ A3 ) = P ( A1 ∪ A2 ) + P ( A3 ) − P(( A1 ∪ A2 ) ∩

= P ( A1 ) + P ( A2 ) − P ( A1 ∩ A2 ) + P ( A3 ) − P (( A1 ∩ A3 ) ∪( A2 ∩

= P ( A1 ) + P ( A2 ) − P ( A1 ∩ A2 ) + P ( A3 ) −[ P ( A1 ∩ A3 ) + P ( A2 ∩
− P (( A1 ∩ A3 ) ∩( A2 ∩ A3 )) = P ( A1 ) + P ( A2 ) + P ( A3 ) −

− P ( A1 ∩ A2 ) − P ( A1 ∩ A3 ) − P ( A2 ∩ A3 ) + P ( A1 ∩ A2 ∩ A3 ).

Ţinând seama de independenţa evenimentelor Ai


, i=1,2,3, avem:
P ( B ) = P ( A1 ) + P ( A2 ) + P ( A3 ) − P ( A1 ) P ( A2 ) − P ( A1 ) P ( A3 ) − P ( A2
3 4 5 3 4 3 5 4 5 3 4 5 1
+ P ( A1 ) P ( A2 ) P ( A3 ) = + + − ⋅ − ⋅ − ⋅ + ⋅ ⋅ =
4 5 6 4 5 4 6 5 6 4 5 6 1
178 Elemente de teoria probabilităţilor şi statistică matematică

4.Din mai multe controale asupra activităţilor


a trei magazine se apreciază că în proporţie de 90%,
80%, 70%, cele trei magazine au declarat marfa vândută.
La un nou control, comisia de control solicită 50 de
documente privind activitatea comercială: 20 de la primul
magazin, 15 de la al doilea, 15 de la al treilea. Dintre
acestea se alege unul la întâmplare pentru a fi verificat:
a)Cu ce probabilitate documentul ales este
corect (înregistrat)?
b)Constatând că este corect, cu ce
probabilitate el aparţine primului magazin?
Rezolvare:
a) Notăm cu A1, A2, A3 evenimentul ca
documentul controlat să provină de la primul, al doilea şi
respectiv al treilea magazin. Avem astfel

20 15 15
P( A1 ) = ; P ( A2 ) = ; P ( A3 ) = .
50 50 50
Fie A evenimentul ca documentul controlat să
fie corect. Atunci A / A 1, A / A2, A / A3 reprezintă
evenimentul ca documentul controlat să fie corect ştiind
Elemente de teoria probabilităţilor 179

că el provine de la primul, al doilea, al treilea magazin.


Prin urmare : P(A/A1)=0,90; P(A/A2)=0,80;
P(A/A3)=0,70 . Cum {A1, A2, A3} este un sistem complet
de evenimente
A1 ∪ A2 ∪ A3 = E , A1 ∩ A2 = A1 ∩ A3 = A2 ∩ A3 = Φ

aplicând formula probabilităţii totale avem :


P ( A) = P( A1 ) P ( A / A1 ) + P ( A2 ) P ( A / A2 ) + P ( A3 ) P ( A / A3 ) =
20 15 15
= ⋅ 0,90 + ⋅ 0,80 + ⋅ 0,70 = 0,81 .
50 50 50
b)Aplicând formula lui Bayes avem :
20
⋅ 0,90
P( A1 ) P( A / A1 ) 0,36 4
P( A1 / A) = 3
= 50 = =
0,81 0,81 9
∑ P( A ) P( A / A )
i =1
i i

.
(A1/A reprezintă evenimentul ca documentul
controlat să provină de la primul magazin ştiind că a fost
corect).
5.La un supermarket s-a făcut un sondaj
printre clienţii acestuia, punându-li-se trei întrebări la
care să răspundă prin DA sau NU. S-a constatat că
180 Elemente de teoria probabilităţilor şi statistică matematică

răspunsul DA la prima, a doua respectiv a treia întrebare


a fost de 60%, 80% respectiv 70%. Care este
probabilitatea ca un client să dea :
a)trei răspunsuri DA?
b)trei răspunsuri NU?
c)două răspunsuri DA şi unul NU?
d)cel mult două răspunsuri DA?
e)primele două răspunsuri NU?
f)primul răspuns DA şi încă unul DA?
Rezolvare:
a) Suntem în condiţiile schemei lui Poisson
(presupunând că răspunsurile sunt independente unul de
celălalt) cu 3 urne şi cu probabilităţile : p1 = 0,6; q1 = 0,4;
p2 = 0,8; q2 = 0,2; p3 = 0,7; q3 = 0,3. Astfel probabilitatea
ca să avem 3 răspunsuri DA este coeficientul lui x3 din
polinomul (p1x + q1)(p2x + q2)(p3x + q3) adică
pa = p1p2p3 = 0,6 ∙0,8∙0,7 = 0,336.
b) Probabilitatea să avem trei răspunsuri NU
este coeficientul lui x0 (termenul liber) din polinomul de
mai sus, adică
Elemente de teoria probabilităţilor 181

q1q2q3 = 0,4 ∙0,2∙0,3 = 0,024.


c) În acest caz probabilitatea este coeficientul lui
x2 din acelaşi polinom, adică p1p2q3 + p1q2p3 + q1p2p3 =
0,6∙0,8∙0,3 +
+ 0,6∙0,2∙0,7 + 0,4∙0,8∙0,7 = 0,452.
d)Evenimentul dat este reuniunea a trei
evenimente incompatibile două câte două, respectiv de a
da 0, 1, 2 răspunsuri DA, deci probabilitatea sa este suma
coeficienţilor lui x0, x1, x2 din polinomul de la punctul a).
Avem
pd = q1q2q3 + (p1q2q3 +q1p2q3 + q1q2p3) + (p1p2q3 +
p1q2p3 + q1p2p3) = = 0,024 + 0,188 + 0,452 = 0,664.
Astfel, evenimentul nostru este contrar
evenimentului de la punctul a), deci pd = 1 – pa = 1 –
0,336 = 0,664.
e) Putem reduce schema lui Poisson la 2 urne cu
probabilităţile :
p1 = 0,6; q1 = 0,4; p2 = 0,8; q2 = 0,2.
Probabilitatea cerută este coeficientul lui x0 din
polinomul (p1x + q1)(p2x + q2), adică
182 Elemente de teoria probabilităţilor şi statistică matematică

q1q2 = 0,08. Astfel, evenimentul dat este


intersecţia a două evenimente independente cu
probabilităţile q1 respectiv q2, de unde probabilitatea
cerută este produsul q1q2.
f) Evenimentul este reuniunea evenimentelor
“numai primul şi al doilea răspuns DA ” şi “numai
primul şi al treilea răspuns DA”, care sunt incompatibile,
deci probabilitatea evenimentului dat este suma
probabilităţilor celor două, adică pf = p1p2q3 + p1q2p3 =
0,228.
6.La o bancă s-a constatat că din 100 de credite
acordate, 10 sunt neperformante. Dacă se acordă 5
credite, care este probabilitatea ca:
a) toate să fie neperformante?
b) toate să fie performante?
c) numai 4 să fie performante?
d) cel puţin 4 să fie performante?
Rezolvare:
Suntem în condiţiile schemei lui Bernoulli cu
două culori, unde
Elemente de teoria probabilităţilor 183

p = 0,9 şi q = 1-p =0,1 considerând bile albe


creditele performante, iar bile negre cele neperformante.
Vom obţine astfel:
a) P (5;0) = C5 (0,9) ⋅ (0,1) = 0,00001 ;
0 0 5

b) P (5;5) = C5 (0,9) ⋅ (0,1) = 0,59049 ;


5 5 0

c) P(5,4) = C5 (0,9) ⋅ (0,1) = 0,32705 ;


4 4 1

d) P(5; ≥ 4) = P(5,4) + P(5,5) = 0,91754 .


7.Într-un partid parlamentar sunt 10 deputaţi şi 5
senatori. Se ia la întâmplare un grup de 5 parlamentari ai
partidului respectiv, pentru a forma o comisie. Cu ce
probabilitate grupul conţine:
a) 3 deputaţi şi 2 senatori;
b) numai deputaţi;
c) numai senatori;
d) cel mult 2 senatori;
e) cel puţin un deputat.
Rezolvare:
Suntem în condiţiile schemei hipergeometrice cu
2 culori, unde
a = 10, b = 5 şi n = 5. Vom avea:
184 Elemente de teoria probabilităţilor şi statistică matematică

C103 ⋅ C52
a) P(5;3,2) = ;
C155

C105 ⋅ C50
b) P(5;5,0) = ;
C155

C100 ⋅ C55
c) P (5;0,5) = ;
C155
d)

C105 ⋅ C50 + C104 ⋅ C51 + C103 ⋅ C52


Pd = P (5;5,0) + P (5;4,1) + P (5;3,2) =
C155
;
5 5
C10i ⋅ C55−i
e) Pe = ∑ P(5; i,5 − i ) = ∑ sau
i =1 i =1 C155
altfel
1
Pe = 1 − P (5;0,5) = 1 − .
C155

8.Probabilitatea ca un agent comercial să vândă


un anumit produs este 0,3. Dacă acesta oferă produsul
spre vânzare pe rând la 4 magazine cu ce probabilitate el
vinde produsul:
Elemente de teoria probabilităţilor 185

a) la primul magazin;
b) la al doilea magazin;
c) la ultimul magazin;
d) cel mult la al treilea magazin.
Rezolvare:
Suntem în condiţiile schemei geometrice cu p =
0,3 ( se presupune că agentul poate vinde produsul unui
singur magazin). Prin urmare avem:
a) P1 = pq1-1 = 0,3 ;
b) P2 = pq2-1 = pq = 0,3 ∙0,7 = 0,21 ;
c) P4 = pq4-1 = pq3 = 0,3 ∙(0,7)3 = 0,1029 ;
d)Pd =P1+P2+P3=p + pq + pq2 = p(1+q+q2) =
0,3(1+0,7+0,49)=0,657
9.Fie variabilele aleatoare independente :
 0 1 2 
X :
1 / 2 1 / 4 1 / 4 
 şi
 

 −1 1 2 
Y :
1 / 3 1 / 6 1 / 2 
 .
 
Să se scrie variabilele aleatoare : 2X, Y2, X+Y,
XY, 2X+3Y, X/Y, max(X,Y), X .
186 Elemente de teoria probabilităţilor şi statistică matematică

Rezolvare:
Probabilităţile corespunzătoare valorilor lui 2X,
Y2, X sunt aceleaşi cu cele corespunzătoare lui X şi

respectiv Y. Avem:
 0 2 4 
2X : 
1 / 2 1 / 4 1 / 4 
 ,
 

 0 1 2  1 4 
X :
1 / 2
 , Y : 
2

 .
 1/ 4 1/ 4 
 1 / 2 1 / 2 
1 1
P (Y 2 = 1) = P (Y = −1 ∨ Y = 1) = P (Y = −1) + P (Y = 1) = +
3 6
.
Deoarece X şi Y sunt independente avem că pij = piqj,1 ≤
i, j ≤ 3 .
De exemplu

1 1 1
p12 = P ( X = 0, Y = 1) = P ( X = 0) P (Y = 1) = ⋅ = .
2 6 12
Obţinem

0 −1 0 +1 0 +2 1 −1 1 +1 1+2 2 −1 2 +1 2 +2
X +Y : 
 1 / 6 1 / 12
 1/ 4 1 / 12 1 / 24 1/ 8 1 / 12 1 / 24 1/ 8
Elemente de teoria probabilităţilor 187

adică
 −1 0 1 2 3 4 
X +Y : 
1 / 6 1 / 12  .
 1/ 6 7 / 24 1/ 6 1/ 8

Analog

 0 ⋅ (−1) 0 ⋅1 0 ⋅ 2 1 ⋅ (−1) 1 ⋅1 1⋅ 2 2 ⋅ ( −1) 2 ⋅1 2⋅


X ⋅Y : 
 1/ 6
 1 / 12 1 / 4 1 / 12 1 / 24 1/ 8 1 / 12 1 / 24 1/

de unde

 −2 −1 0 1 2 4 
X ⋅Y : 
1 / 12  .
 1 / 12 1 / 2 1 / 24 1/ 6 1/ 8

Cum 2X şi 3Y au repartiţiile
 0 2 4 
2X : 
1 / 2 1 / 4 1 / 4 
 ,
 

 −3 3 6 
3Y : 
1 / 3 1 / 6  ,
 1/ 2

obţinem repartiţia lui 2X + 3Y :
 −3 −1 1 3 5 6 7 8
2 X + 3Y : 
1 / 6 1 / 12
 1 / 12 1 / 12 1 / 24 1 / 4 1 / 24 1/ 8

.
La fel obţinem:
188 Elemente de teoria probabilităţilor şi statistică matematică

X  −2 −1 0 1/ 2 1 2 
:
1 / 12  ,
Y  1 / 12 1 / 2 1 / 8 1 / 6 1 / 24 

 0 1 2 
max( X , Y ) : 
1 / 6 .
 5 / 24 5 / 8

10.Fie X şi Y două variabile aleatoare discrete
ale căror repartiţii probabiliste comună (pij ) şi marginale
(pi) şi (qj) sunt date în tabelul următor :
X\Y -1 0 1 pi
-1 1/8 1/12 1/6 3/8
1 1/24 1/4 1/3 5/8
qj 1/6 1/3 1/2 1
a)Să se scrie variabilele aleatoare X şi Y.
b)Să se precizeze dacă X şi Y sunt
independente.
c)Să se scrie variabilele X + Y , X ∙ Y, X2, Y2,
Y/X .
Rezolvare:
a)Din tabelul de repartiţie de mai sus deducem

 −1 1   −1 0 1 
X :
3 / 8 
 şi Y :  
 .
 5 / 8 1 / 6 1 / 3 1 / 2 
Elemente de teoria probabilităţilor 189

b)Dacă X şi Y ar fi independente atunci


p11 = P ( X = −1, Y = −1) = p1q1 = P ( X = −1) P (Y = −1)

,
1 3 1
ceea ce nu are loc întrucât ≠ ⋅ .
8 8 6
c)Deoarece
1 1 1 1 1 1
p11 = , p12 = , p13 = , p21 = , p22 = , p23 =
8 12 6 24 4 3
,
obţinem
−2 −1 0 1 2 
X +Y : 
1 / 8 1 / 12  ,
 1 / 6 +1 / 24 1 / 4 1 / 3

 −1 0 1 
X ⋅Y : 
1 / 6 +1 / 24  ,
 1 / 12 +1 / 4 1 / 8 +1 / 3 

X  −1 0 1 
:
1 / 24 +1 / 6 1 / 12 +1 / 4 1 / 8 +1 / 3 
 .
Y  
Repartiţiile lui X2 şi Y2 rezultă imediat din cele
ale lui X şi Y:
1 2  0 1 
X 2 :
1
 , Y :
1 / 3 .
   2 / 3

190 Elemente de teoria probabilităţilor şi statistică matematică

11.Fie variabila aleatoare discretă

1 2 3 3 3 
X :  .
p p 2
p p 2
p 2 

a)Să se determine p.
b)Să se calculeze funcţia de repartiţie a lui X.
c)Să se calculeze probabilităţile:
P ( X <1), P ( X <3), P ( X >4), P (1,5 < X <3,2), P ( X ≥2,1)
P (3,1 < X X >2,8), P (1,5 < X ≤3 2 < X <4).

Rezolvare:
a)Trebuie să avem p + p2 + p + p2 + p2 = 1 şi p ≥
0. Rezultă
3p2 + 2p = 1 şi p ≥ 0, adică p = 1/3.
b)Cum F(x) = P(X<x) rezultă că F(x) = 0 dacă x
≤ 1,
F(x) = p = 1/3 dacă x ∈(1,2] ,
F(x) = P(X=1) + P(X=2) = p + p2 = 4/9 dacă x
∈(2,3] ,

F(x) = P(X=1) + P(X=2) + P(X=3) = p + p2 + p


= 7/9 dacă x ∈(3,4] ,
Elemente de teoria probabilităţilor 191

F(x) = P(X=1) + P(X=2) + P(X=3) + P(X=4) = p


+ p2 + p + p2 = 8/9 dacă x ∈(4,5] şi F(x) = 1 dacă x > 5 .
Deci :

 0, x ≤ 1;
1
3 , 1 < x ≤ 2;
4
 , 2 < x ≤ 3;

F ( x) =  9
7
 , 3 < x ≤ 4;
9
8 , 4 < x ≤ 5;
9
 1, x > 5.
c)Avem
P(X<1) = P(Φ) = 0,
P(X<3)=P(X=1)+P(X=2)=4/9,
P(X>4)=P(X=5)=1/9,
P(1,5<X<3,2)=P(X=2)+P(X=3)=4/9,
P(X≥2,1)=P(X=3)+P(X=4)+P(X=5)=5/9,

P(3,1 < X , X > 2,8) P( X > 3,1) 2 p2 2


P(3,1 < X X > 2,8) = = = =
P( X > 2,8) P( X > 2,8) p +2p 2
5
192 Elemente de teoria probabilităţilor şi statistică matematică

P(1,5<X≤3/2<X<4)=P(X=2 sau X=3 / X=3) =


P(X=3/X=3) =1.
12.Determinaţi constanta a ∈ R pentru ca
funcţia f dată mai jos să fie densitate de repartiţie şi apoi
să se determine funcţia de repartiţie corespunzătoare. Să
se calculeze mediana, cuantilele şi valoarea modală a
variabilei aleatoare X având densitatea de probabilitate
ρ(x):
 2 x, x ∈ [0,1 / 2]
 2x
ρ ( x) = a − , x ∈ (1 / 2,2]
 3
 0, altfel.

Rezolvare:
+

Avem ∫−∞
ρ( x ) dx =1 , de unde

1/ 2 2  2x 
∫0
xdx + ∫  a −
1/ 2
 3 
dx =1 sau

 x2  2
x2 1/ 2
0 +
 ax − 3  1/ 2 = 1 . Rezultă a = 4/3 şi deci
 
Elemente de teoria probabilităţilor 193

 0, x<0  0,
  x2 ,
x  x2 , x ∈ [0,1 / 2] 
F ( x) = ∫ ρ (t )dt =  1 x 4 − 2t =  4x − x2 − 1
 4 + ∫1 / 2 3 dt , x ∈ (1 / 2,2]  ,
−∞

  3
 1, x>2  1,
Întrucât F este continuă vom avea F(x) =
F(x+0) , ∀x , deci
1 1
F ( M e ( X )) ≤ şi F ( M e ( X )) ≥ , adică
2 2

1
F ( M e ( X )) = . Aceasta se realizează pentru
2

4 x − x 2 −1 1 3
= , de unde x = 2 − ∈(1 / 2,2] .
3 2 2

3
Aşadar M e ( X ) = 2 − = c2 . Se observă că
2

1
F(1/2)=1/4 deci c1 = c3
2
4 x − x 2 −1 3
rezultă din F(x)=3/4, adică = , de
3 4

3
unde c3 = 2 − .
2
194 Elemente de teoria probabilităţilor şi statistică matematică

Deoarece ρ este crescătoare pe [0,1/2] şi


descrescătoare pe (1/2,2], x=1/2 este punct de maxim

1
(singurul), prin urmare M o ( X ) = .
2
13.Să se determine variabilele aleatoare
independente
x x +1 x +2 x +3
X :
p  şi
 2p 3p 4p 

y 2y 3y 
Y :  ,
q q 2
q 2 

ştiind că M(X)=2 şi M(Y)=7. Să se calculeze


apoi M(2X+3Y), D2(X), D2(Y) şi D2(2X+3Y).
Rezolvare:
Deoarece X este o variabilă aleatoare trebuie să
avem p+2p+3p+4p=1, adică p=1/10. Atunci
M(X)=x∙p+(x+1)∙2p+(x+2)∙3p+
(x+3)∙4p=10px+20p=x+2.
Cum M(X)=2 rezultă că x = 0.
Analog q+q2+q2=1, adică 2q2+q-1=0, de unde
q=1/2. Rezultă că
Elemente de teoria probabilităţilor 195

7
M(Y)=y∙q+2y∙q2+3y∙q2= y. Cum M(Y)=7
4
avem că y=4. Tablourile de repartiţie ale lui X şi Y vor fi

0 1 2 3 4 8 12 
X : 1 1 3 2 , Y : 1 1 1 .
   
 10 5 10 5 2 4 4
Folosind proprietăţile mediei avem
M(2X+3Y)=M(2X)+M(3Y)=2M(X)
+3M(Y)=2∙2+3∙7=25.
Pentru calcularea dispersiilor avem nevoie să
calculăm mediile lui X2 şi Y2. Acestea au tablourile de
repartiţie

0 1 4 9 16 64 144 
X : 1
2
1 3 2 , Y2 : 1 1 1 
   
 10 5 10 5 2 4 4 
, astfel că
1 1 3 2
M (X 2) = 0⋅ + 1 ⋅ + 4 ⋅ + 9 ⋅ = 5 şi
10 5 10 5
1 1 1
M (Y 2 ) = 16 ⋅ + 64 ⋅ + 144 ⋅ = 60 . Atunci
2 4 4
D2(X)=M(X2)-M(X)2=5-4=1 şi D2(Y)=M(Y2)-
M(Y)2=60-49=11.
196 Elemente de teoria probabilităţilor şi statistică matematică

Cum X şi Y sunt independente, rezultă că şi 2X


şi 3Y sunt independente şi avem
D2(2X+3Y)=D2(2X)+D2(3Y)=4D2(X)
+9D2(Y)=4∙1+9∙11=103.
14.Să se determine variabilele aleatoare X şi Y
ale căror repartiţii sunt date incomplet în tabelul de mai
jos, ştiind că M(X)=17 şi D2(Y)=1. Să se calculeze apoi
M(XY) şi D2(X-Y).

X\Y -b 0 b pi
a 1/5 1/10
a2 2/5 3/5
qj 1/5
Rezolvare:
3 2
Deoarece p1+p2=1 rezultă că p1 = 1 − = .
5 5
Mai departe
1 1 2
p11+p12+p13=p1, adică + + p13 = , deci
5 10 5

1
p13 = . Cum
10
Elemente de teoria probabilităţilor 197

1 1 1
p13+p23=q3 rezultă că p23 = − = . Dar
5 10 10

3 2 1 1
p21+p22+p23=p2, adică p21 = − − = . Din
5 5 10 10

3 1
p11+p21=q1 şi p22+p12=q2, rezultă că q1 = şi q2 = .
10 2
Obţinem astfel

 a a2  − b 0 b
X : 2 3  , Y :  3 1 1 . Astfel
   
5 5   10 2 5

2 3
M (X ) = a ⋅ + a 2 ⋅ = 17 , adică 3a2+2a-85=0, de unde
5 5

3b 1 b b
a1=5, a2=-17/3. Deoarece M (Y ) = − +0⋅ + = −
10 2 5 10
şi
3 1 1 b2
M (Y 2 ) = (−b) 2 ⋅ + 02 ⋅ + b 2 ⋅ = , rezultă
10 2 5 2

198 Elemente de teoria probabilităţilor şi statistică matematică

b2 b2 49 b 2
D 2 (Y ) = M (Y 2 ) − M (Y ) 2 = − = .
2 100 100

100
Din ipoteză D2(Y)=1, astfel că b2 = , adică
49

10
b= . Din tabloul repartiţiei comune (pij) avem
7

 − a 2b − ab 0 ab a 2b 
XY :  1 1 1 1 1  şi
 
 10 5 2 10 10 

 a − b a2 − b a a2 a + b a2 + b 
X −Y : 1 1 1 2 1 1 
 
 10 10 10 5 5 10 
Astfel

a 2b ab ab a 2b ab a
M ( XY ) = − − + + =− =− .
10 5 10 10 10 7
Dacă a=5 M(XY)=-5/7, iar dacă a=-17/3
M(XY)=17/21. Pentru calcularea dispersiei lui X-Y,
avem nevoie de:
Elemente de teoria probabilităţilor 199

a − b a 2 − b a 2a 2 a + b a 2 + b 6a 2 + 4a + b
M ( X −Y ) = + + + + + =
10 10 10 5 5 10 10

( a − b ) 2 ( a 2 − b ) 2 a 2 2a 4 ( a + b ) 2 ( a 2 + b) 2
M [( X − Y ) 2 ] = + + + + + =
10 10 10 5 5 10
6a 4 + 4a 2 + 2ab + 5b 2
=
10
120
Pentru a=5, b=10/7 avem M(X-Y)= şi
7

18985
M [( X −Y ) 2 ] = ,
49
18985 14400 4585
deci D 2 ( X −Y ) = − = .
49 49 49
15.Să se determine parametrii care apar în
repartiţiile următoare şi să se calculeze apoi M(X) şi
D2(X), X fiind o variabilă aleatoare, având repartiţia
respectivă:

 n 
a) X :  1 q n , n ∈ N , q > 0 ;
 
4 
200 Elemente de teoria probabilităţilor şi statistică matematică

 x 
b) X :  , x ∈[0,1], a > 0 ;
 a ( x + 2 x) 
2

a 2 x 3 , x ∈ [0,1]
 x  
1
c) X :  , ρ ( x) =  ax, x ∈ (1,2]
 ρ ( x)  2
 0,
 altfel .

Rezolvare:

1
a)Din condiţia ∑ 4q
n =0
n
=1 rezultă că

1 1 1 3
⋅ = 1 ⇒1 − q = ⇒ q =
4 1−q 4 4

Atunci

'

1 1 ∞ 1 ∞ 1  ∞ 
M ( X ) = ∑n ⋅ q n = q ∑n ⋅ q n−1 = q ∑( q n )' = q ∑q n  =
n =0 4 4 n=0 4 n=0 4  n=0 
'
1  1  1 1 1 3 1
= q ⋅   = q = ⋅ ⋅ =3
4  1 − q  4 (1 − q ) 2
4 4 1
16
Elemente de teoria probabilităţilor 201
' '

1 1 ∞ 1  ∞  1 ∞ 
M ( X ) = ∑ n ⋅ q n = q ∑ n( q n )' = q ∑ nq n  = q ∑ nq n  =
2 2

n =0 4 4 n=0 4  n=0   4 n=0 


'
1  1  1 2
= q 2
= q = 24 .
4  (1 − q )  4 (1 − q ) 3

Astfel D2(X)=M(X2)-M(X)2=24-9=15.
1
∫ a( x + 2 x ) dx =1 rezultă că
2
b) Din condiţia 0

 x3  4 3
a + x 2  10 = 1 ⇒ a ⋅ = 1 ⇒ a = . Atunci
 3  3 4

1 1 3 2 3  x 4 2 x3  1
M ( X ) = ∫ x ⋅ ρ( x ) dx = ∫ x ⋅ ( x + 2 x ) dx =  + 0=
0 0 4 4 4 3   1

,
1 1 3 2 3  x5 2 x 4  1
M ( X 2 ) = ∫ x 2 ⋅ ρ( x)dx = ∫ x 2 ⋅ ( x + 2 x)dx =  + 0
0 0 4 4 5 4  

.
Astfel

2
21  11  67
D 2 ( X ) = M ( X 2 ) − M ( X )2 = −  = .
40  16  1280
2
c)Din condiţia ∫
0
ρ( x) dx =1 rezultă că
202 Elemente de teoria probabilităţilor şi statistică matematică

1 2 ax x4 x2 a 2 3a a =1
∫ a 2 x 3 dx + ∫ dx =1 ⇒ a 2 ⋅ +a ⋅ =1 ⇒ + =1 ⇒ 
1 2
0 1
0 1 2 4 4 4 4 a = 4

Cum ρ( x) ≥ 0 numai a=1 convine, astfel că :


2 1 2 x x5 x3 1 7 41
M ( X ) = ∫ x ⋅ ρ( x) dx = ∫ x ⋅ x 3 dx + ∫ x ⋅ dx = 1
0 + 2
1 = + =
0 0 1 2 5 6 5 6 30

2 1 2 x x6 x4 49
M ( X 2 ) = ∫ x 2 ⋅ ρ( x) dx = ∫ x 2 ⋅ x 3 dx + ∫ x 2 ⋅ dx = 1
0 + 2
1 =
0 0 1 2 6 8 24

,
2
49  41  313
D2 ( X ) = M ( X 2 ) − M ( X )2 = −  = .
24  30  1800

16.Fie vectorul aleator (X,Y) cu X, Y variabile


aleatoare independente, a cărui densitate de probabilitate
este
a
ρ( x, y ) = . Să se determine:
(1 + x )(1 + y 2 )
2

a)funcţia de repartiţie corespunzătoare;


b) P (( X , Y ) ∈[0,1) ×[0,1)) .
Rezolvare:
a) Avem ∫∫ R2
ρ( x, y )dxdy =1 , deci

+∞ a
∫ −∞ (1 + x )(1 + y 2 )
2
dxdy =1 . Rezultă că
Elemente de teoria probabilităţilor 203

+∞ dx +∞ dy 1
a∫
1 + x 2 ∫−∞ 1 + y 2
+∞ +∞
= 1 ⇒ a ⋅ arctgx −∞ ⋅arctgy −∞ =1 ⇒ a =
−∞ π2
.
Atunci

1 x y dudv 1 x du y dv
F ( x, y ) =
π 2 ∫ ∫
−∞ −∞ (1 + u )(1 + v )
2 2
= 2
π ∫ −∞ 1 + u 2 ∫−∞ 1 + v 2
=

1 1  1 1
=  arctgx +  arctgy + 
 π 2  π 2

b)

1 dudv
1 1
P (( X , Y ) ∈D ) =
π 2 2∫ ∫ (1 +u
0)(1 + v 2 )
0
=

1
= F (1,1) − F (1,0) − F (0,1) + F (0,0) =
16
17.Fie vectorul aleator (X,Y) cu densitatea de
probabilitate
ax 2 y, ( x, y ) ∈[0,1] ×[0,2]
ρ( x, y ) = 
 0, altfel .

a) Să se determine constanta a.
b) Să se calculeze funcţia de repartiţie F(x,y) şi
funcţiile marginale FX(x) şi FY(y).
204 Elemente de teoria probabilităţilor şi statistică matematică

Rezolvare:
1 2
a) Avem ∫∫ 0 0
ρ( x, y ) dxdy =1 , adică

1 2 2a 3
a ∫ x 2 dx ∫ ydy =1 , rezultă că =1 de unde a = .
0 0 3 2
x y
b) Avem F ( x, y ) = ∫−∞∫−∞ ρ( x, y ) dxdy .

Dacă x < 0 sau y < 0, atunci f(x,y)=0 şi deci


F(x,y)=0.
Dacă x > 1 şi y > 2, atunci F(x,y)=1.
Dacă (x,y) ∈[0,1] ×[0,2] avem
x y 3 2 3 x y x3 y 2
F ( x, y ) = ∫ ∫ u vdudv = ∫ u 2 du ∫ vdv =
0 0 2 2 0 0 4
.
Dacă x ∈[0,1] şi y > 2 avem
x 2 3 2 3 x 2
F ( x, y ) = ∫ ∫ u vdudv = ∫ u 2 du ∫ vdv = x 3
0 0 2 2 0 0

.
Dacă x > 1 şi y ∈[0,2] obţinem
1 y 3 2 3 1 y y2
F ( x, y ) = ∫ ∫ u vdudv = ∫ u 2 du ∫ vdv =
0 0 2 2 0 0 4
.
Elemente de teoria probabilităţilor 205

 0, x < 0 sauy < 0


 x3 y 2
 , ( x, y ) ∈ [0,1] × [0,2]
 4
Astfel F ( x, y ) =  x 3 , x ∈ [0,1], y > 2
 y 2

 , x > 1, y ∈ [0,2]
 4
 1, x > 1, y > 2
Funcţiile de repartiţie marginale sunt
 0, x <0

FX ( x) = F ( x, ∞) = x 3 , x ∈[0,1]
 1, x >1

 0, y <0

 y2
FY ( y ) = F (∞, y ) =  , y ∈[0,2]
4
 1,
 y >2

18.Fie vectorul aleator (X,Y) având densitatea


de probabilitate
e −( x +y ) , x ≥ 0, y ≥ 0
ρ( x, y ) = 
 0, altfel

Să se calculeze:
a) P(X<1,Y<1), P(X+Y<1), P(X+Y≥2),
P(X≥1/Y≥1), P(X<2Y), P(X=n) ;
206 Elemente de teoria probabilităţilor şi statistică matematică

b) Funcţia de repartiţie F(x,y) şi funcţiile de


repartiţie marginale FX(x), FY(y);
c) Densităţile de repartiţie marginale ρX(x),
ρY(y);
d) Momentele obişnuite de ordin (k,s) ;
e) Corelaţia variabilelor X şi Y.
Rezolvare :
1 1
a) P ( X <1, Y <1) = ∫ ∫ ρ( x, y ) dxdy =
−∞ −∞

1 1
=∫ ∫e
−x −y
dxdy = ( −e −x ) 10 ( −e −y ) 10 = (1 −e −1 ) 2
0 0

1 1−x 1
P ( X +Y <1) = ∫∫ρ( x, y )dxdy
x +y <1
=∫ ∫
0 0
e −x −y dxdy = ∫ e
0

1
= ∫ (e −x −e −1 ) dx = ( −e −x ) 10 −e −1 =1 −2e −1 ,
0

P( X +Y ≥ 2) =1 − P( X +Y < 2) =1 − ∫∫ρ( x, y )dxdy


x +y <2
=

2 2−x 2 2
=1 −∫ ∫ e −x −y dxdy =1 −∫ e −x (e −y ) 2−x
0 dx =1 −∫ (e −x −
0 0 0 0

P ( X ≥1, Y ≥1)
P ( X ≥1 / Y ≥1) =
P (Y ≥1)

(
2
e −x−y dxdy =  e −x dx 
+∞ +∞ +∞
P ( X ≥1, Y ≥1) = ∫ ∫ ∫1
−x
 = ( −e )
1 1  
Elemente de teoria probabilităţilor 207
+∞ +∞
P (Y ≥1) = ∫ ∫ e −x −y dxdy = −e −x +∞
0 ( −e −y ) 1+∞ = e −1
0 1

⇒ P( X ≥1, Y ≥1) = e −1
x
+∞ +∞
∫∫e dxdy = ∫ ∫ e −x e −y dydx = ∫
−x −y
P ( X < 2Y ) = 2 e −x
0 0 0
0<x <2 y

+∞
−3 x
 −x 2 −32 x  +∞ 2 1
=∫ (e −x − e 2
) dx = 
−e + 3 e
 0 =1 − =

0
  3 3

, P(X=Y)=0.
x y
b) Avem F ( x, y ) = ∫−∞∫−∞ ρ(u , v ) dudv .

Dacă x > 0 sau y < 0 ρ(x,y)=0, deci F(x,y)=0.


Dacă x ≥0 şi y ≥0 avem
x y x y
F ( x, y ) = ∫ ∫ e −u −v dudv = ∫ e −u du ∫ e −v dv = (1 −e −x )(1 −
0 0 0 0

.
Funcţiile de repartiţie marginale sunt
FX ( x ) = F ( x, ∞) = 1 − e − x şi

FY ( y ) = F (∞, y ) = 1 − e − y .
c) Densităţile de probabilitate marginale
ρX (x) şi ρY ( y ) sunt derivatele funcţiilor de repartiţie
marginale:
208 Elemente de teoria probabilităţilor şi statistică matematică

 0, x <0
ρX ( x ) =  −x ,
e , x ≥0

 0, y <0
ρY ( y ) =  −y .
e , y ≥0

d)
+∞ +∞
σk , s = M ( X k Y s ) = ∫0 ∫ 0
x k y s e −x −y dxdy =

+
∞ +

=∫ x k e −x dx ∫ y s e −y dy = Γ( k +1)Γ( s +1) = k! s!
0 0

,
+

unde Γ( p ) = ∫ x p −1e −x dx este funcţia
0

gama a lui Euler şi are proprietatea că Γ( p +1) = p!


pentru p ∈N .
e) Avem
+∞ +∞
cov( X , Y ) = M ( XY ) − M ( X ) M (Y ) =σ11 − ∫ xe −x dx ∫ y
0 0

=1 − Γ( 2) 2 =1 −1 = 0 .

19.Fie (X,Y) un vector aleator discret a cărui


repartiţie probabilistă este dată în tabelul de mai jos. Să
se calculeze coeficientul de corelaţie r(X,Y) şi să se scrie
ecuaţiile dreptelor de regresie.
Elemente de teoria probabilităţilor 209

X\Y -1 0 1 2 pi
-1 1/10 1/5 1/10 0 2/5
0 1/20 0 1/10 1/20 1/5
1 1/10 1/10 1/20 3/20 2/5
qj 1/4 3/10 1/4 1/5 1

Rezolvare:
Pe baza formulelor corespunzătoare, deducem
imediat:
2 1 2
M ( X ) = −1 ⋅ + 0 ⋅ +1 ⋅ = 0 ,
5 5 5

1 3 1 1 2
M (Y ) = −1 ⋅ +0⋅ +1 ⋅ + 2 ⋅ = ,
4 10 4 5 5
2 1 2 4
M ( X 2 ) = ( −1) 2 ⋅ + 0 2 ⋅ + 12 ⋅ = ,
5 5 5 5
1 3 1 1 13
M (Y 2 ) = ( −1) 2 ⋅ + 0 2 ⋅ + 12 ⋅ + 2 2 ⋅ = ,
4 10 4 5 10
210 Elemente de teoria probabilităţilor şi statistică matematică

4
D 2 ( X ) = M ( X 2 ) − M ( X )2 = ,
5
13 4 57
D 2 (Y ) = M (Y 2 ) − M (Y ) 2 = − =
10 25 50

1 1 1
M ( XY ) = (−1) ⋅ (−1) ⋅ + (−1) ⋅ 0 ⋅ + (−1) ⋅1 ⋅ + (−1) ⋅ 2 ⋅ 0 + 0 ⋅ (−1) ⋅
10 5 10
1 1 1 1 1 3
+ 0 ⋅ 0 ⋅ 0 + 0 ⋅1 ⋅ +0 ⋅2 ⋅ +1 ⋅ (−1) ⋅ +1 ⋅ 0 ⋅ +1 ⋅1 ⋅ +1 ⋅ 2 ⋅
10 20 10 10 20 20
1
cov( X , Y ) = M ( XY ) − M ( X ) M (Y ) = ,
4
cov( X , Y ) 0,25
r( X ,Y ) = =
2 2
D ( X ) D (Y ) 2 57 .

5 50
Ecuaţiile dreptelor de regresie sunt :
2 2
y− y−
x −0 5 , 5 = +0,25 ⋅ x − 0 .
= +0,25 ⋅
4 57 57 4
5 50 50 5
20.Să se determine funcţia caracteristică şi
funcţia generatoare de momente şi apoi să se calculeze,
pornind de la acestea, momentele σ1 şi σ2 , pentru
următoarele variabile aleatoare :
Elemente de teoria probabilităţilor 211

0 1 2
a) X :  1 1 1 ;
 
2 4 4
 x 
b) X :  −x , x ≥ 0 .
e 
Rezolvare :
a) Avem
1 1 1 2 + e it + e 2it
ϕ X (t ) = e 0⋅it ⋅ + e1⋅it ⋅ + e 2⋅it ⋅ =
2 4 4 4
şi
1 0⋅t 1 1⋅t 1 2⋅t 2 + e t + e 2t
G X (t ) = e + e + e = .
2 4 4 4
Primele două derivate ale acestor funcţii sunt :
i
ϕX' (t ) = (e it + 2e 2it ) ,
4

ϕ"
X (t ) =
1
− (e it +
4
,
212 Elemente de teoria probabilităţilor şi statistică matematică

1 t
G X' (t ) = (e + 2e 2t ) ,
4

1
G "
X (t ) = (e t +4e
4
.
Obţinem

3i " 5
ϕ (0) = , ϕ X (0) = −
'
X
,

4 4

3 " 5 , de unde
G (0) = , GX (0) =
'
X
4 4
ϕ X' (0) 3
σ1 ( X ) = M ( X ) = = G X' (0) = şi
i 4
Elemente de teoria probabilităţilor 213

ϕ "X (0) 5
σ 2 ( X ) = M ( X ) = 2 = G X ( 0) =
" 2

i 4
.
b)
+∞ +∞
ϕX (t ) = ∫ e itx ⋅ e −x dx = ∫ (cos tx + i sin tx ) ⋅ e −x dx =
0 0

+∞ +∞
=∫ cos tx ⋅ e −x dx + i ∫ sin tx ⋅ e −x dx = A + iB
0 0

+∞ +∞
A =∫ cos tx ⋅ e −x dx = ∫ cos tx ⋅ (−e −x )' dx =
0 0

+∞
= −cos tx ⋅ e −x +∞
0 − ∫ t sin tx ⋅ e −x dx =1 − tB ,
0

+
∞ +

B =∫ sin tx ⋅( −e −x ) dx =−sin tx ⋅e −x +∫ t cos tx ⋅ e −x dx =
+∞
0
0 0

.
1
Obţinem A = 1 - t2A , adică A = şi B =
1 +t 2

t
.
1 +t 2
1 + it
Astfel ϕ X (t ) = .
1+t2
214 Elemente de teoria probabilităţilor şi statistică matematică

Apoi

+∞ +∞ e x ( t −1) 1
G X (t ) = ∫ e tx e −x dx = ∫ e x ( t −1) dx = +∞
0 = , t <1
0 0 t −1 1 −t
.
Primele două derivate sunt
i − 2t − it 2
ϕ X' (t ) = ,
(1 + t 2 ) 4

ϕ "
X (t ) =
6i
t 3
+

,
1
G X' (t ) = ,
(1 − t ) 2

2
"
GX (t ) =
(1 −t )3
.
Obţinem
Elemente de teoria probabilităţilor 215

ϕX' (0)
σ1 ( X ) = M ( X ) = = G X' (0) = 1 şi
i

ϕ"X (0)
σ2 ( X ) = M ( X ) = 2
= G X" (0) = 2
i2
.

1.16. Probleme propuse


1. Se aruncă o monedă de patru ori. Fie A
evenimentul ca marca să apară de două ori, B
evenimentul ca marca să apară cel puţin o dată, C
evenimentul ca marca să apară la aruncarea a doua. Să se
determine:
a)spaţiul E al probelor;
b)probele care favorizează respectiv
apariţiile evenimentelor A, B, C;
c)evenimentele
A ∩B, A ∩C , B ∩C , A, B, C , A ∪B, A ∩B ∩C ,

A ∩B , B ∩C , A-B, B-A, A-C,;


A ∩B ∩C , A ∪B ∪C
216 Elemente de teoria probabilităţilor şi statistică matematică

d)probabilităţile evenimentelor de la
punctele precedente.
2. Un client cumpără dintr-un magazin patru
articole de îmbrăcăminte. Fie A1, A2, A3, A4 respectiv
evenimentele ca primul, al doilea, al treilea şi al patrulea
articol să nu conţină defecţiuni. Să se exprime cu ajutorul
acestor evenimente, următoarele evenimente:
a) nici un articol nu prezintă defecţiuni;
b) cel puţin un articol prezintă defecţiuni;
c) exact un aricol prezintă defecţiuni;
d) exact două articole prezintă defecţiuni;
e) cel mult două articole prezintă defecţiuni.
3. Un lacăt are un cifru din patru cifre. Să se
calculeze probabilitatea de a ghici cifrul lacătului dacă:
a) lacătul funcţionează perfect;
b) ultima cifră, din cauza unei defecţiuni nu
trebuie să coincidă cu ultima cifră a
combinaţiei considerate;
Elemente de teoria probabilităţilor 217

c) prima şi ultima cifră nu trebuie să coincidă


cu prima şi respectiv ultima cifră a
combinaţiei considerate.
4. La o conferinţă de presă participă 7 ziarişti
străini şi 17 ziarişti autohtoni (8 femei şi 9 bărbaţi).
Ştiind că la conferinţa de presă vor pune întrebări 6
ziarişti luaţi la întâmplare din cei 24 prezenţi, se cere
probabilitatea ca întrebările să fie puse de:
a) 2 ziarişti străini şi 4 autohtoni;
b) 2 ziarişti străini şi 4 autohtoni (2 femei şi
2 bărbaţi);
c) 1 ziarist străin şi 5 autohtoni (2 femei şi 3
bărbaţi).
5. Piesele produse de o maşină prezintă rebut în
procente 2%. Pentru controlul calităţii produselor, se iau
la întâmplare 10 piese.
Să se calculeze probabilitatea ca:
a) nici o piesă să nu fie defectă;
b) cel mult două piese să fie defecte.
218 Elemente de teoria probabilităţilor şi statistică matematică

6. Se ştie că un magazin de cosmetice are acelaşi


număr de clienţi bărbaţi, respectiv femei. Se consideră
primii 12 clienţi ai magazinului dintr-o zi fixată. Să se
calculeze probabilitatea ca dintre cei 12 clienţi:
a) patru să fie femei;
b) să fie cel mult patru femei.
7. Se aruncă un zar de 15 ori. Să se calculeze
probabilitatea ca de 5 ori să apară un număr prim, de 8
ori să apară un număr compus şi de 2 ori apară faţa cu un
punct.
8. La o loterie s-au vândut 85 de bilete loto, din
care o persoană a cumpărat 10 bilete. Ştiind că din 85
bilete 3 sunt câştigătoare, să se calculeze probabilitatea
ca persoana care a cumpărat cele 10 bilete:
a) să nu fi câştigat;
b) să aibă un bilet câştigător;
c) să aibă cel puţin un bilet câştigător.
9. Într-un magazin de autoservire, pe un raft se
află 10 ciocolate care costă respectiv 1 mie de lei, 3 mii
de lei, 5 mii de lei şi 10 mii de lei. O persoană ia la
Elemente de teoria probabilităţilor 219

întâmplare 5 ciocolate. Să se determine probabilitatea ca


suma plătită să fie de 25 mii de lei.
10. Se aruncă 5 zaruri, din care unul are o faţă
colorată în alb şi celelalte în negru, altul are două feţe
colorate în alb şi celelalte în negru, altul are trei feţe
colorate în alb şi celelalte în negru, altul are patru feţe
colorate în alb şi celelalte în negru, iar altul are cinci feţe
colorate în alb şi celelalte în negru. Să se calculeze
probabilitatea ca :
a) să se obţină pe trei din cele cinci zaruri
culoarea albă;
b) să se obţină cel puţin pe două zaruri
culoarea albă.
11. Se ştie că trei din patru clienţi care intră într-
o unitate alimentară fac cumpărături de la unitatea
respectivă. Să se calculeze probabilitatea ca:
a) primul cumpărător să apară după trei
clienţi care au părăsit magazinul fără să
cumpere nimic din unitatea respectivă;
220 Elemente de teoria probabilităţilor şi statistică matematică

b) până la al doilea cumpărător doi clienţi să


nu fi efectuat cumpărături.
12. Zece aparate de acelaşi tip sunt date în
folosinţă, trei provenind de la unitatea U1, cinci de la
unitatea U2, iar duoă de la unitatea U3. Se supun aceste
aparate unei probe de verificare. Cele care provin de la
unitatea U1 trec proba cu probabilitatea 0.9, cele de la U2
cu probabilitatea 0.75 iar cele de la U3 cu probabilitatea
0.85. Se ia un aparat la întâmplare şi se cere
probabilitatea ca:
a) aparatul să treacă proba de verificare;
b) aparatul să provină de la U1 dacă se ştie că
a trecut proba de verificare.
13. Consumul zilnic de energie electrică într-o
unitate comercială este normal cu probabilitatea p=0.8.
Fie X numărul zilelor din săptămână când consumul este
normal. Să se scrie distribuţia varialbilei aleatoare X.
14. Se aruncă o monedă de trei ori. Se notează
cu X şi Y respectiv numărul apariţiilor mărcii în cele trei
Elemente de teoria probabilităţilor 221

aruncări şi numărul maxim de mărci consecutive apărute


în cele trei aruncări. Să se scrie distribuţiile:
a) variabilelor aleatoare X şi Y;
b) vectorului aleator (X,Y);
c) variabilelor aleatoare X+Y, XY.
15. La o librărie s-au primit 10 exemplare dintr-
o carte, din care 4 prezintă mici defecţiuni. Trei
cumpărători iau la întâmplare câte o carte din cele 10. Fie
X numărul cărţilor cu defecţiuni vândute celor trei
cumpărători. Să se scrie distribuţia variabilei aleatoare X
şi funcţia de repartiţie corespunzătoare variabilei
aleatoare X, iar apoi să se reprezinte grafic funcţia de
reprtiţie.
16. O persoană cumpără pe rând bilete de loz în
plic până când obţine un bilet câştigător. Ştiind că un
bilet este câştigător cu probabilitatea p=0.1 şi notând cu
X numărul biletelor necâştigătoare cumpărate, să se scrie
distribuţia variabilei aleatoare X şi funcţia de repartiţie
ataşată variabilei aleatoare X.
222 Elemente de teoria probabilităţilor şi statistică matematică

17. Variabila aleatoare X de tip continuu are

 A sin x, x ∈ ( 0, π )
densitatea de probabilitate: ρ ( x ) =  ,
 0, x ∉ ( 0, π )
unde A este o constantă reală. Să se determine:
a) constanta reală A;
b) funcţia de repartiţie corespunzătoare;
π π
c) probabilităţile P( ≤ X ≤ ) şi P(0<X<
6 2

π π
X> ).
2 4
18. Variabila aleatoare X urmează legea normală
N(0,1). Să se determine densităţile de probabilitate
respectiv pentru variabilele aleatoare Y = X3 şi Z =
 X . 19. O persoană doreşte să deschidă un lacăt şi
are n chei, dintre care numai una se potriveşte. Pentru
aceasta, încearcă la întâmplare deschiderea lacătului cu
aceste chei. Fie X numărul de încercări pentru
deschiderea lacătului. Să se scrie distribuţia variabilei
aleatoare X, iar apoi să se calculeze valoarea medie şi
dispersia variabilei aleatoare X, dacă:
Elemente de teoria probabilităţilor 223

a) cheile încercate se pun împreună cu


celelalte;
b) cheile încercate se înlătură.
20. Se consideră vectorul aleator (X,Y) cu

 A x ,d y ax, y〉 0, cy x〈〈 1 a
densitatea de probabilitate:
ρ ( x, y ) =  . Să se

 0, a l t f e l
determine:
a) constanta reală A;
b) densităţile de probabilitate ρ X, ρ Y pentru
variabilele aleatoare X, Y;
224 Elemente de teoria probabilităţilor şi statistică matematică

1 1
c) probabilităţile P(0 < X < ,0<Y< )
2 2

1 1
şi P(X <  Y< ).
2 2
21. La patru unităţi alimentare din oraş se poate
găsi zilnic pâine proaspătă cu probabilităţile p1=0.8,
p2=0.9, p3=0.95 şi respectiv p4=0.85. Fie X numărul
unităţilor alimentare din cele patru la care se găseşte
pâine proaspătă într-o zi fixată. Să se determine:
a) distribuţia variabilei aleatoare X;
b) valoarea medie, dispersia, abaterea medie
pătratică, mediana şi modul variabilei
aleatoare X.
22. Fie (X,Y) coordonatele unui punct luminos
ce reprezintă o ţintă pe un ecran radar circular şi care
urmează legea uniformă pe domeniul D=
{(x,y)∈R2 x2+y2 ≤ r2}. Să se determine valoarea medie
şi dispersia distanţei Z = X 2 +Y 2 de la centrul
ecranului până la punctul luminos.
Elemente de teoria probabilităţilor 225

23. Variabila aleatoare X urmează legea beta. Să


se calculeze momentele iniţiale, iar apoi valoarea medie,
dispersia şi abaterea medie pătratică a variabilei aleatoare
X.
24. Fie punctul a = (0,1) fixat şi punctul aleator
X = (0,1), care urmează legea uniformă pe intervalul
(0,1). Să se determine corelaţia dintre X şi distanţa Z =
 X-a de la X la a, iar apoi să se determine valoarea
lui a pentru care variabilele aleatoare X şi Z sunt
25. Folosind inegalitatea lui Cebîşev, să se arate

m
P(0<X<2(m+1)) ≥ ,
m +1
dacă variabila aleatoare X are densitatea de probabilitate

 xm − x

ρ ( x) =  m! e , d a c ax〉 0 .
 0, d a c ax ≤ 0
26. Probabilitatea ca o persoană să găsească loc
la un hotel este p = 0.8. În decursul unei luni de zile, la
hotelul respectiv s-au prezentat 4000 de persoane. Fie X
226 Elemente de teoria probabilităţilor şi statistică matematică

numărul persoanelor care au găsit loc la hotel din totalul


de 4000. Să se determine probabilitatea ca:
a) numărul persoanelor care au găsit loc la
hotel să fie cuprins între 3000 şi 3400;
b) numărul persoanelor care au găsit loc la
hotel să nu depăşească 3000;
c) numărul persoanelor care nu au găsit loc
la hotel să fie mai mic decât 500.
27. Probabilitatea ca o persoană să fie admisă la
examenul de şofer amator este p=0.75. Într-o lună se
prezintă un număr de n candidaţi la acest examen. Să se
determine numărul n astfel încât să putem afirma cu o
probabilitate cel puţin 0.95 că frecvenţa relativă a
promovaţilor să se abată de la probabilitatea p = 0.75 mai
puţin de 0.01 utilizând atât inegalitatea lui Cebîşev cât şi
teorema Moivre-Laplace.
28. Probabilitatea ca o piesă luată la întâmplare
să fie defectă este p = 0.01. Sunt testate 100 de piese. Să
se evalueze probabilitatea ca:
a) cel puţin 5 piese să fie defecte;
Elemente de teoria probabilităţilor 227

b) mai puţin de 5 piese să fie defecte;


c) numărul pieselor defecte să fie cuprins
între 5 şi 10.
29. Probabilitatea ca o piesă luată la întâmplare
să fie defectă este p = 0.1. Un lot de piese este respins
dacă conţine cel puţin 10 piese defecte. Să se determine
numărul de piese ce trebuie testate pentru ca un lot să fie
respins cu probabilitatea 0.87.
30. Să se arate că şirul (Xn)n≥ 1 de variabile
aleatoare independente, care au distribuţiile X :

 − ln n ln n 
 
 1 1  urmează legea numerelor mari.

 2 2 
31. Fie variabilele aleatoare independente:
 0 1 2   −1 0 1 2 
X :
1 6  şi Y :  
 12 1 3

1 8
 12 14 1 8

Să determine variabilele aleatoare: X+Y; X-Y; X⋅ Y; X2;


Y2; X3; Y3; 2X; 3Y; 2X+3Y; 3Y-2X; X .
32. Fie X şi Y două variabile aleatoare discrete
ale căror repartiţii probabiliste comune ( pij ) şi
228 Elemente de teoria probabilităţilor şi statistică matematică

unidimensionale ( pi ) şi (q j ) sunt date în tabelul de


mai jos:
Y
-1 0 1 2 pi
X
-1 1/12 1/24 1/24 1/48 3/16
1 1/48 1/24 1/48 1/24 1/8
11/1
2 1/48 1/3 1/6 1/6
6
11/4 11/4
qj 1/8 5/12 1
8 8

a) Scrieţi variabilele aleatoare X şi Y;


b) Precizaţi dacă variabilele aleatore X şi Y
sunt independente sau nu şi justificaţi
răspunsul;
c) Scrieţi variabilele aleatoare: X+Y; X-Y;

Y
X⋅ Y; ; X2; Y3;
X
3X-2Y;
33. Fie variabilele aleatoare independente:
Elemente de teoria probabilităţilor 229

− 2 −1 0 1 2
X : 1 1 2 1 1 şi
 
 10 5 5 10 5

0 1 2 3 4 5
Y : 1 1 1 1 1 1
 
 12 12 2 6 12 12 
a) Calculaţi M(X), M(X2), D2(X), M(Y),
M(Y2) şi D2(Y);
b) Care dintre următoarele mărimi pot fi
calculate şi care nu şi de ce?
M(2X+3Y); D2(2X+3Y); M(X2+Y);
D2(X2+Y);
M(X2+Y2); D2(X2+Y2); M(XY).
c) Calculaţi mărimile de la punctul b) pentru
care răspunsul este favorabil.
34. Să se determine, în fiecare caz, variabila
aleatoare X şi apoi să se calculeze M(X) şi D2(X).
 x 
a) X :  x  , x∈N, p > 0, q > 0
 pq 
230 Elemente de teoria probabilităţilor şi statistică matematică

 x 
b) X :  ax b  , x∈N, a > 0, b > 0
 
 x! 
x
c) X :   , x∈[0,1], a∈R
 ax 

 x 
d) X :   , x∈[0,1], a∈R
 a (3 x + 2 x ) 
2

 x 
e) X :  a x  , a∈R, x∈R
e 
 x 
f) X :  
 , x∈R,
 ρ( x ) 

ax , x ∈ [ 0,1]
 a 2 x 2
ρ ( x) =  , x ∈ [1,2] , a∈R
 2
0 , în rest

35. Fie variabilele aleatoare discrete:

0 1 0 1 2
X :1 2  şi Y :  1 1 1
   
3 3 6 2 3
1
Dacă P ( X = 0, Y = 0) = λ şi P ( X = 1, Y = 1) = , să se
3
determine repartiţia comună a vectorului aleatoriu (X,Y)
Elemente de teoria probabilităţilor 231

în funcţie de λ ∈ R . Calculaţi apoi coeficientul de


corelaţie r ( X , Y ) şi precizaţi dacă există valori ale lui
λ pentru care X şi Y să fie independente.
36. Fie ( X , Y ) un vector aleatoriu continuu cu
densitatea de repartiţie
 a ( xy 2 + x 2 y ) , ( x, y ) ∈[1,2] × [ 2,3] 
ρ( X , Y ) = 

, a > 0

0 , în rest 
a) Determinaţi densitatea de repartiţie
ρ( X , Y ) şi densităţile de repartiţie
marginale corespunzătoare ρX (x) şi
ρY ( y ) ;
b) Calculaţi coeficientul de corelaţie
r ( X ,Y ) .

37. Calculaţi funcţia caracteristică şi funcţia


generatoare de momente pentru fiecare dintre variabilele
aleatoare:

1 2 3
a) X :  1 1 1
 
6 3 2
232 Elemente de teoria probabilităţilor şi statistică matematică

− 2 −1 0 1 2
b) X :  1 1 2 1 1
 
 10 5 5 5 10 
 x 
c) X :  2 , x ∈[ 0,1]
3x 
 x 
d) X :  −x  , x ≥ 0
 xe 
şi apoi verificaţi dacă momentele obţinute pe cale directă
coincid cu cele obţinute cu ajutorul acestor funcţii.
38. Verificaţi dacă funcţiile următoare definesc
repartiţii ale unor variabile aleatoare discrete şi apoi
calculaţi M(X) şi D2(X) pentru fiecare dintre ele.
1 (ln θ ) k
a) P (k ) = , k ∈ N ,θ > 1
θ k!
1
1 −
b) P ( k ) = k e θ , k ∈ N ,θ > 0
θ ⋅ k!
c) P( k ) =θ k (1 −θ )1−k , k ∈{0,1},0 <θ <1
39. Să se afle funcţia caracteristică a variabilei
aleatoare X caracterizată prin densitatea de probabilitate
Elemente de teoria probabilităţilor 233

 0, x ≤1
x −1, 1< x <2

f ( x) =  .
3 − x, 2 < x <3

 0, x >3

S-ar putea să vă placă și