Sunteți pe pagina 1din 129

ELEMENTE DE

TEORIA PROBABILITĂŢILOR

Andrei-George Oprina Emil Simion

Bucureşti, Februarie 2017


Cuprins
1 Introducere 5

2 Spaţii de probabilitate 7
2.1 Experimente şi evenimente aleatoare, spaţiul stărilor unui experiment, frecvenţa
unui eveniment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Probabilitatea unui eveniment, scheme clasice de probabilităţi . . . . . . . . . . 9
2.3 Definiţia axiomatică a probabilităţii . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.4 Evenimente independente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.5 Probabilităţi condiţionate şi formula lui Bayes . . . . . . . . . . . . . . . . . . . 19
2.6 Probleme propuse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.7 Simulări cu Mathematica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

3 Variabile aleatoare discrete 33


3.1 Definiţia variabilei aleatoare şi funcţia de repartiţie asociată . . . . . . . . . . . 33
3.2 Variabile aleatoare discrete . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.3 Independenţa variabilelor aleatoare discrete . . . . . . . . . . . . . . . . . . . . 37
3.4 Operaţii cu variabile aleatoare discrete . . . . . . . . . . . . . . . . . . . . . . . 38
3.5 Caracteristici numerice ale variabilelor aleatoare discrete . . . . . . . . . . . . . 42
3.6 Funcţia generatoare de momente . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.7 Principalele distribuţii discrete . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.8 Probleme propuse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.9 Simulări cu Mathematica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

4 Variabile aleatoare continue 64


4.1 Definiţie, funcţia de distribuţie şi densitatea asociată . . . . . . . . . . . . . . . 64
4.2 Funcţia de repartiţie condiţionată şi formula lui Bayes . . . . . . . . . . . . . . . 66
4.3 Repartiţii multidimensionale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.4 Independenţa variabilelor aleatoare continue . . . . . . . . . . . . . . . . . . . . 70
4.5 Operaţii cu variabile aleatoare continue . . . . . . . . . . . . . . . . . . . . . . . 71
4.6 Caracteristici numerice ale variabilelor aleatoare continue şi
vectorilor aleatori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.7 Funcţii caracteristice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.8 Principalele distribuţii continue . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.9 Principalele distribuţii multidimensionale . . . . . . . . . . . . . . . . . . . . . . 92
4.10 Probleme propuse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
4.11 Simulări cu Mathematica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

5 Legea numerelor mari şi teoreme limită centrală 103


5.1 Legea numerelor mari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.1.1 Legea slabă a numerelor mari . . . . . . . . . . . . . . . . . . . . . . . . 103
5.1.2 Legea tare a numerelor mari . . . . . . . . . . . . . . . . . . . . . . . . . 108
5.2 Teorema limită centrală . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
5.3 Probleme propuse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
5.4 Simulări cu Mathematica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
1 Introducere
Utilizarea modelelor probabiliste este o tehnică larg folosită ı̂n toate domeniile care necesită
prelucrarea automată a datelor.
Noţiunea clasică de probabilitate se referă la studiul aleatorismului şi al incertitudinii. În
situaţiile ı̂n care numărul de apariţii ale posibilelor rezultate ale unui eveniment poate fi cuan-
tificat numeric, teoria clasică defineşte probabilitatea ca raportul dintre numărul cazurilor fa-
vorabile şi numărul cazurilor totale. Există ı̂nsă situaţii ı̂n care acest lucru nu este posibil,
motiv pentru care este necesar un aparat matematic analitic sau axiomatic.
Din aceste considerente, ı̂n cadrul capitolului 2 este realizată o introducere a noţiunii de
probabilitate atât ı̂n sens clasic cât şi prin axiomatica introdusă de A. N. Kolmogorov (1903
– 1987), abordarea din urmă furnizând definiţia modernă a probabilităţii, ı̂n sensul teoriei
măsurii, care a condus la crearea de legături profunde ı̂ntre teoria probabilităţilor şi alte ramuri
fundamentale ale matematicii (precum analiză infinit dimensională, sisteme dinamice, ecuaţii
cu derivate parţiale) sau informaticii (spre exemplu teoria jocurilor, criptografie, inteligenţă
artificială). În acest context, sunt prezentate şi metode non-standard de calcul a probablilităţii
prin metode grafice. Totodată, este introdusă noţiunea de probabilitate condiţionată şi formula
lui Bayes care stabileşte legătura dintre probabilitatea cauzei bazat pe observaţiile rezultate
(efect).
În capitolele 3 şi 4 ne concentrăm atenţia asupra noţiunilor de variabile aleatoare discrete şi
continue, fiind prezentate totodată instrumentele (funcţia caracteristică şi funcţia generatoare
de momente) de analiză a caracteristicilor variabilelor aleatoare (medie şi dispersie). Aici este
tratat şi cazul multidimensional (vectori aleatori).
Există situaţii ı̂n care numărul experimentelor este mare. Dacă experimentele sunt indepen-
dente şi sunt efectuate ı̂n condiţii similare atunci media rezultatelor obţinute are un comporta-
ment care este apropiat de clopotul lui Gauss. Aceste situaţii sunt studiate ı̂n ultimul capitol,
acesta fiind dedicat prezentării rezultatelor privind legile numerelor mari şi teoremelor de tip
limită centrală.
Subiectele abordate ı̂n acestă carte sunt conforme cu programele analitice aferente disci-
plinelor care presupun studierea teoriei probabilităţilor ı̂n cadrul facultăţilor Universităţii Poli-
tehnica din Bucureşti. Din acest motiv materialul este structurat ca un suport de curs/seminar
pentru facultăţile de profil electric, calculatoare şi tehnologia informaţiei şi ı̂şi propune să rea-
lizeze o introducere ı̂n modelele şi metodele probabiliste necesare formării competenţelor pro-
fesionale ale viitorilor absolvenţi. Pentru o abordare completă asupra teoriei facem trimitere la
câteva cărţi clasice de teoria probabilităţilor precum [1], [2], [3], [6], [9], [11], [12].
S-a ı̂ncercat un mod de expunere apropiat studenţilor, cu accent pus pe crearea competenţelor
necesare identificării modelului corect şi a ı̂nţelegerii acestuia. Fiecare capitol cuprinde, pe lângă
exemple şi probleme propuse, simulări/rezolvări cu ajutorul softurilor matematice dedicate (s-a
optat pentru aplicaţia Mathematica).
O parte din cele prezentate au facut obiectul activitaţilor didactice defăşurate de autori la
Universitatea Politehnica din Bucureşti.
Mulţumim domnnului dr. Iulian Cı̂mpean pentru sugestiile formulate asupra materialului.

Autorii.

5
6
2 Spaţii de probabilitate
2.1 Experimente şi evenimente aleatoare, spaţiul stărilor unui ex-
periment, frecvenţa unui eveniment
Elemente de terminologie utilizate ı̂n mod curent ı̂n teoria probabilităţilor:
- experiment aleator: un proces repetabil ı̂n urma căruia obţinem un rezultat/ observaţie.
Exemple de experimente. Aruncarea unui zar sau a unei monezi, precum şi extragerea unei bile
dintr-o urnă cu bile.
- rezultate/observaţii/evenimente elementare: rezultatul obţinut ı̂n urma unui exper-
iment aleator (de regulă se notează cu literele mici ale alfabetului).
Exemple de evenimente elementare.
- {1, 2, 3, 4, 5, 6} la aruncarea unui zar;
- {ban, stemă} la aruncarea unei monezi;
- {c1 , c2 , . . . , cn }, ci apariţia bilei având culoarea i, ı̂n condiţiile ı̂n care ı̂n urnă au fost
introduse n bine de culori diferite.
- eveniment aleator: un eveniment care se poate ı̂ntâmpla sau nu ca urmare a rezultatului
obţinut ı̂n experimentul aleator (de regulă se notează cu literele mari ale alfabetului).

Exemple de evenimente aleatoare.


- la aruncarea zarului, ”apariţia numărului 3”, ”apariţia unuia din numerele {2, 3}” sau
”apariţia unui număr par”;
- la aruncarea monezii ”apare ban”;
- la extragerea unei bile din urnă, ”apare bila de culoarea c1 ” .
Mulţimea tuturor evenimentelor aleatoare care se pot obţine ı̂ntr-un experiment aleator se
numeşte spaţiul evenimentelor asociat experimentului.

Alte tipuri de evenimente:


- evenimentul sigur: evenimentul care apare la fiecare repetiţie a experimentului aleator.
La aruncarea zarului, apariţia unui număr natural, ı̂ntrucât toate rezultatele elementare ale
experimentului sunt numere naturale.
- evenimentul imposibil: evenimentul care nu apare niciodată ca urmare a rezultatului
experimentului aleator (se notează uzual cu ∅).
La aruncarea zarului, apariţia numărului 0, ı̂ntrucât rezultatele elementare ale experimen-
tului sunt {1, 2, 3, 4, 5, 6}.
- evenimente contrare: două evenimente A şi B pentru care la orice repetiţie a experimen-
tului avem că dacă evenimentul A are loc atunci evenimentul B nu are loc sau dacă evenimentul
B are loc atunci evenimentul A nu are loc (notaţia uzuală este B = Ā).
La aruncarea zarului, evenimentele A =”apare un număr par” şi B =”apare un număr
impar” sunt evenimente contrare ı̂ntrucât nu poate apărea simultan şi un număr par şi un
număr impar.
- evenimente compatibile: două evenimente A şi B care pot apărea simultan ca urmare
a rezultatului unui experiment.
La aruncarea zarului, evenimentele A =”apare uni număr par” şi B =”apare un număr mai
mare ca 3” sunt evenimente compatibile ı̂ntrucât dacă ı̂n urma experimentului apare cifra 4

7
atunci evenimentele A şi B au loc amândouă.
- evenimente echiprobabile: două evenimente A şi B pentru care nu există niciun motiv
ca apariţia unuia dintre cele două evenimente să fie mai favorabilă.
La aruncarea monezii, evenimentele A =”apare ban” şi B =”apare stemă” sunt echiposibile.
La aruncarea unui zar, evenimentele A =”apare un număr mai mic strict ca 3” şi B =”apare
un număr mai mare sau egal ca 3” nu sunt echiposibile, pentru că evenimentul A are loc ı̂n 2
situaţii (când rezultatul experimentului este 1 sau 2), iar evenimentul B are loc ı̂n 4 situaţii
(când rezultatul experimentului este 3, 4, 5 sau 6).

Remarcă. Studierea apariţiei unui eveniment se realizează prin analiza apariţiei unei părţi a
mulţimii evenimentelor elementare.
La aruncarea unui zar, evenimentul A =”apare un număr par” se studiază prin inter-
mediul evenimentelor elementare A1 =”apare 2”, A1 =”apare 4”, respectiv A1 =”apare 6”
care ı̂l determină complet, ı̂ntrucât A are loc dacă unul din evenimentele A1 , A2 sau A3 au loc
(A = A1 ∪ A2 ∪ A3 = {2, 4, 6}).

Astfel, apare drept necesară utilizarea operaţiilor ı̂ntre mulţimi şi semnificaţia acestora la
nivel de evenimente.
- reuniunea evenimentelor A şi B (evenimentul A ∪ B) apare când cel puţin unul din
evenimentele A sau B apar;
- intersecţia evenimentelor A şi B (evenimentul A ∩ B) apare când ambele evenimente
A şi B au loc simultan;
- diferenţa evenimentelor A şi B (evenimentul A \ B) apare când evenimentul A are loc
şi B nu are loc;
- complementarul evenimentului A (evenimentul Ac ) apare când evenimentul contrar
lui A are loc;
Remarcă. Mulţimea care reprezintă evenimentul imposibil este mulţimea vidă. Evenimentul
sigur este reprezentat de mulţimea formată din toate evenimentele elementare. Cele două
evenimente sunt complementare.
Spunem că evenimentul A implică B dacă apariţia evenimentului A implică şi apariţia
evenimentului B.
La aruncarea unui zar, evenimentul A =”apare 2” implică evenimentul B =”apare un număr
par”. Orice eveniment implică implică evenimentul sigur.

Spaţiul stărilor unui experiment

Definiţie. Spaţiul stărilor unui experiment este mulţimea tuturor rezultatelor elementare ale
experimentului.

Remarcă. Unui experiment i se pot asocia mai multe spaţii de stări, funcţie de interpretarea
pe care o furnizăm rezultatelor acestuia. Unele spaţii sunt ”mai potrivite” decât altele, pe de
o parte din perspectiva faptului că evenimentele elementare pot fi sau nu echiposibile şi pe de
altă parte datorită cantităţii de informaţie privind experimentul, pe care o conţin.

Exemplu. Considerăm experimentul aruncării cu 2 zaruri.

8
Există mai multe modalităţi de a defini spaţiul stărilor: Ω1 = {(1, 1), (1, 2), . . . , (6, 6)}, Ω2 =
{2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12} şi Ω3 ={aceeaşi paritate, parităţi diferite}.
Pentru Ω1 se consideră rezultatele fiecărui zar ı̂n parte, prima componentă reprezentând
rezultatele primului zar, iar a doua componentă rezultatele celui de-al doilea zar. Interpretat
astfel rezultatul experimentului, toate evenimentele elementare aferente acestuia pot fi privite
ca elemente din Ω1 .
Pentru Ω2 se consideră suma rezultatelor obţinute la aruncarea celor două zaruri. Din
această perspectivă, toate evenimentele elementare aferente experimentului pot fi privite ca
elemente din Ω2 .
Pentru Ω3 se analizează dacă rezultatele obţinute din aruncarea celor două zaruri au sau nu
aceeaşi paritate. Astfel, toate evenimentele elementare aferente experimentului sunt elemente
din Ω3 .
Toate cele trei mulţimi reprezintă spaţii de stării ale aceluiaşi experiment aleator. O analiză
simplă a spaţiilor ne arată că:
- evenimentele elementare din Ω1 şi Ω3 sunt echiposibile, spre deosebire de cele din Ω2 ;
- spaţiul Ω1 este mai bogat ı̂n informaţie decăt Ω2 şi Ω3 ı̂ntrucât dacă se cunoaţe ce eveni-
ment elementar privit ı̂n spaţiul Ω1 a apărut, atunci se cunoaşte şi evenimentul elementar
corespunzător spaţiilor de stări Ω2 şi Ω3 .

Frecvenţa unui eveniment


Considerăm un experiment având spaţiul stărilor Ω si un eveniment A asociat acestuia.
Repetăm experimentul de n ori, n ∈ N.

Definiţie. Numărul apariţiilor evenimentului A ı̂n cele n repetări ale experimentului (notat
uzual cu αn ) se numeşte frecvenţa absolută a lui A. Numărul σn (A) = αnn se numeşte
frecvenţa relativă a evenimentului A.

Propoziţia 2.1.1. Următoarele afirmaţii sunt adevărate:


(i) αn ∈ [0, n] şi σn (A) ∈ [0, 1] pentru orice n ∈ N.
(ii) σn (∅) = 0 şi σn (Ω) = 1.
(iii) σn (A ∪ B) = σX n (A) + σn (B), dacă A ∩ B = ∅ şi n ∈ N.
În particular avem că σn ({e}) = 1.
e∈Ω

Demonstraţia propoziţiei este directă folosind definiţiile mai sus introduse.

2.2 Probabilitatea unui eveniment, scheme clasice de probabilităţi


P. de Fermat (1601-1665) şi B. Pascal (1623-1662) au definit pentru prima dată probabili-
tatea realizării evenimentului A prin
Numărul cazurilor favorabile apariţiei evenimentului A
.
Numărul cazurilor posibile
Justificăm ı̂n continuare modul ı̂n care s-a ajuns la această definiţie.

9
Exemplu 1. Considerăm experimentul aruncării unei monede, având spaţiul stărilor Ω ={ban,
stemă}. Toate evenimentele elementare sunt echiposibile, sens ı̂n care intuitiv este firesc să
”măsurăm” şansa apariţiei fiecăruia dintre ele cu 12 = inversul numărului evenimentelor el-
ementare care compun spaţiul stărilor (frecvenţa relativă a evenimentelor), spaţiul stărilor
având doar cele două elemente.

Exemplu 2. Considerăm experimentul aruncării unui zar, având spaţiul stărilor Ω = {1, 2, 3, 4, 5,
6}. Toate evenimentele elementare sunt echiprobabile, sens ı̂n care ”măsurăm” şansa apariţiei
fiecăruia dintre ele cu 16 = inversul numărului evenimentelor elementare care compun spaţiul
stărilor.

Exemplu 3. Considerăm experimentul extragerii unei bile dintr-o urnă având n bile de culori
diferite. Spaţiul stărilor este Ω = {c1 , c2 , . . . , cn }, unde ci reprezentă culoarea bilei. Toate
evenimentele elementare sunt echiprobabile, astfel că ”măsurăm” şansa apariţiei fiecăruia dintre
ele cu n1 = inversul numărului evenimentelor elementare care compun spaţiul stărilor.

Definiţie. Dacă evenimentele elementare ale unui unui experiment sunt echiprobabile atunci
spunem că evenimentele sunt echiprobabile şi probabilitatea fiecărui eveniment este
egală cu inversul numărului de evenimente elementare care compun spaţiul stărilor.

În continuare extindem definiţia probabilităţii la evenimente care nu sunt doar evenimente
elementare. În general, un eveniment este un element din mulţimea părţilor spaţiului de stări
al experimentului.
Exemplu. Considerăm experimentul aruncării a două monezi, spaţiul stărilor fiind Ω =
{(b, b), (b, s), (s, b), (s, s)} unde b reprezintă faţa ”ban”, iar s faţa ”stemă”. Definim evenimentul
A ={feţele zarurilor sunt identice}. Prin urmare apariţia evenimentele elementare (b, b) şi (s, s)
sunt favorabile apariţiei evenimentului A şi ı̂n consecinţă măsurăm şansa apariţiei lui A cu
valoarea 24 = 12 = raportul dintre numărul evenimentelor din A care sunt favorabile apariţiei
lui A şi numărul total de evenimente.

Definiţie. Dacă evenimentele elementare aferente spaţiului stărilor unui experiment sunt echi-
probabile şi A este un eveniment atunci probabilitatea evenimentului A este raportul
dintre numărul evenimentelor echiprobabile care definesc evenimentul A şi numărul
evenimentelor elementare care compun spaţiul stărilor.

Probabilitatea evenimentului A este notată cu P (A).

Propoziţia 2.2.1. Următoarele afirmaţii sunt adevărate:


(i) P (∅) = 0 şi P (Ω) = 1;
(ii) P (A) ∈ [0, 1] pentru orice eveniment A;
(iii) P (A) + P (Ā) = 1 pentru orice eveniment A.

Demonstraţia propoziţiei este directă folosind definiţia mai sus introdusă.

Scheme clasice de probabilităţi


a) Schema lui Bernoulli, fără ı̂ntoarcere. Se consideră o urnă ce conţine N bile de m
culori diferite, dintre care N1 de culoarea 1,. . . ,Nm de culoarea m. Se realizează n extrageri

10
succesive din urnă, fără revenire. Probabilitatea ca din cele n bile extrase n1 să fie de culoarea
1, . . . , nm să fie de culoarea m, este:
CNn11 · CNn22 . . . CNnmm
P = .
CNn
b) Schema lui Bernoulli, cu ı̂ntoarcere. Se consideră o urnă ce conţine bile de m culori
diferite. Se cunosc probabilităţile ca, extrăgând la ı̂ntâmplare o bilă din urnă, aceasta să fie
de culoarea i, i = 1, . . . , m, probabilităţi notate cu pi . Se realizează n extrageri succesive din
urnă, cu revenire. Probabilitatea ca din cele n bile extrase n1 să fie de culoarea 1, . . . , nm să
fie de culoarea m, este:
n!
P = pn1 · pn2 2 . . . pnmm .
n1 ! . . . nm ! 1
c) Schema lui Poisson. Se consideră n urne Ui , i = 1, . . . , n, conţinând bile albe şi negre.
Probabilitatea ca efectuând la ı̂ntâmplare o extragere din urna Ui , i = 1, . . . , n să apară o
bilă albă respectiv neagră sunt pi , respectiv qi = 1 − pi . Se extrage o bilă din fiecare urnă.
Probabilitatea ca din cele n bile extrase, k să fie albe şi n − k să fie negre este coeficientul lui
tk din polinomul:
P = (p1 t + q1 ) · (p2 t + q2 ) . . . (pn t + qn ).
d) Schema lui Pascal. Considerăm o urnă care conţine bile de 2 culori, să spunem albe
şi negre. Se extrag bile din urnă, una câte una, cu ı̂ntoarcerea bilei ı̂n urnă, fiind reţinută
culoarea bilei. Considerăm ca la o extragere avem succes dacă am extras o bilă de culoarea
albă, probabilitatea de extragere fiind p ∈ (0, 1). Probabilitatea ca la apariţia celui de-al n-lea
succes să fi obţinut k insuccese este
k
P = Cn+k−1 pn (1 − p)k .
Probabităţi geometrice.
În situaţia ı̂n care cazurile favorabile şi cazurile totale se pot exprima sub forma unei arii
sau a unui volum atunci
Aria favorabilă Volumul favorabil
P (A) = = .
Aria totală Volumul total

Exemplul 1. Se aleg la ı̂ntâmplare două numere α, β din intervalul [−1, 1]. Care este probabi-
litatea ca α2 + β 2 ≤ 1?

Figura 1: Aria favorabilă (cercul) şi aria totală (pătratul)

11
aria cercului unitate π
Răspuns. P (A) = = .
aria pătratului având latură de lungime 2 4

Exemplul 2. Alegem la ı̂ntâmplare o firmă din mulţimea firmelor cu 4 acţionari. Care este
probabilitatea ca firma aleasă să aibă un acţionar majoritar.

Figura 2: Volumul favorabil (zona haşurată) şi volumul total (tetraedrul)

Răspuns. Considerăm x, y, z, t ∈ (0, 1) variabile care cuantifică numărul de acţiuni ale celor
4 acţionari. Prin urmare x + y + z + t = 1. Condiţia ca firma să aibă un acţionar majoritar
1 1 1 1
impune următoarea restricţie: x ≥ sau y ≥ sau z ≥ sau x + y + z ≤ . Astfel, volumul
2 2 2 2
favorabil este volumul tetraedrului având latură de lungime 1, respectiv volumul total este
1
volumul haşurat, adică de 3 ori volumul tetraedrului având latură de lungime . Prin urmare,
2
4 · V1 1
2
P (A) = = ,
V1 2
unde am notat cu Va volumul tetreaedrului având latura de lugime a.

2.3 Definiţia axiomatică a probabilităţii


Introducem ı̂n continuare definiţia modernă a probabilităţii, ı̂n sensul teoriei măsurii, care
provine de la A.N. Kolmogorov (1930).

Definiţie. Fie Ω o mulţime nevidă. O colecţie F de submulţimi ale lui Ω se numeşte σ-algebră
(sau corp borelian) pe Ω dacă are următoarele proprietăţi:
(cb1) Ω ∈ F (F conţine ı̂ntreg spaţiul Ω);
(cb2) dacă A ∈ F atunci Ac ∈ F (F [ este ı̂nchis la complementare);
(cb3) dacă A1 , A2 , . . . ∈ F atunci An ∈ F (F este ı̂nchis la reuniuni numărabile).
n≥1

12
Exemple triviale. Se arată imediat că F1 = {∅, Ω} (σ-algebra minimală) şi F2 = P(Ω) (σ-
algebra minimală) sunt σ-algebre pe Ω. Orice altă altă σ-algebră F pe Ω are proprietatea că
F1 ⊂ F ⊂ F2 .
Definiţie. Se numeşte spaţiu măsurabil perechea (Ω, F) unde:
(sp1) Ω 6= ∅;
(sp2) F este o σ-algebră pe Ω.
Elementele lui F se numesc mulţimi măsurabile.
Propoziţia 2.3.1. (Proprietăţi ale\ σ-algebrelor) Dacă (Ω, F) este un spaţiu măsurabil atunci:
(i) dacă A1 , A2 , . . . ∈ F atunci An ∈ F (F este ı̂nchis la intersecţii numărabile);
n≥1
(ii) dacă A, B ∈ F atunci A \ B ∈ F (F este ı̂nchis la diferenţe).
(iii) Dacă F1 este o altă σ-algebră pe Ω atunci şi F ∩ F1 este σ-algebră pe Ω (intersecţia a
două σ-algebre este o σ-algebră).
Demonstraţie. Afirmaţia (i) este o consecinţă a proprietăţilor (cb2) şi (cb3) şi a legii lui
De Morgan care afirmă că:
\ [
dacă A1 , A2 , . . . ∈ F atunci ( An )c = ( An )c .
n≥1 n≥1

Proprietatea (ii) rezultă din (i), (cb2) şi faptul că A \ B = A ∩ B c .


(iii) rezultă folosind proprietăţile corpului borelian şi ale operaţiilor de intersecţie, reuniune
şi complementare. q.e.d.

Corolar 2.3.2. Dacă A1 , A2 , . . . ∈ F atunci


∞ \
[ ∞ ∞ [
\ ∞
lim inf An := Ak ∈ F şi lim sup An := Ak ∈ F.
n≥1 n≥1
n=1 k=n n=1 k=n

În particular, dacă lim inf An = lim sup An atunci lim An există şi
n≥1 n≥1 n→∞

lim An := lim inf An = lim sup An ∈ F


n→∞ n≥1 n≥1

σ-algebra generată.
Dacă S ⊂ P(Ω) (mulţimea părţilor lui Ω) atunci găsim ı̂ntotdeauna o σ-alegebră care conţine
pe S şi anume P(Ω). Se poate demonstra că există o cea mai mică (ı̂n sensul incluziunii) σ-
algebră care conţine S, aceasta se notează cu σ(S) şi se numeşte σ-algebra generată de S.
Mai precis, σ(S) este unica σ-alegebră care satisface următoarele două proprietăţi:
(i) S ⊂ σ(S);
(ii) oricare altă σ-algebră F astfel ı̂ncât S ⊂ F rezultă că σ(S) ⊂ F.

Remarcă. Dacă S ⊂ P(Ω) atunci σ(S) = S dacă şi numai dacă S este o σ-algebră (inegalitatea
”⊃” fiind evidentă din definiţia σ-algebrei minimale).

Un exemplu fundamental de σ-algebră generată este σ-algebra Boreliană pe R definită


astfel:

13
B(R) = σ({A ⊂ R | A mulţime deschisă ı̂n R}).
Definiţie. Se numeşte probabilitate pe spaţiul măsurabil (Ω, F) o funcţie P : F −→ [0, 1]
care are următoarele proprietăţi:
(p1) P (Ω) = 1;
(p2) pentru orice A1 , A2 , . . . ∈ F cu An ∩ Am = ∅ dacă n 6= m avem
[ X
P( An ) = P (An ).
n≥1 n≥1

Definiţie. Se numeşte spaţiu de probabilitate tripletul (Ω, F, P ) unde


(sp1) Ω 6= ∅ (spaţiul evenimentelor elementare);
(sp2) F este o σ-algebră pe Ω (spaţiul tuturor evenimentelor);
(sp3) P este o probabilitate pe spaţiul măsurbil (Ω, F).
Propoziţia 2.3.3. (Proprietăţile probabilităţii) Fie (Ω, F, P ) un spaţiu de probabilitate.
Următoarele afirmaţii sunt adevărate:
a) P (∅) = 0;
b) P (A) ≤ P (B) pentru orice A, B ∈ F cu A ⊂ B;
c) P (A) ∈ [0, 1] pentru orice A ∈ F;
d) P (Ac ) = 1 − P (A) pentru orice A ∈ F;
e) P (A ∪ B) = P (A) + P (B) − P (A ∩ B) pentru orice A, B ∈ F.
(p2)
Demonstraţie. a) Pentru A ∈ F avem P (A ∪ ∅) = P (A) + P (∅) deci P (∅) = 0.
b) Întrucât A ⊂ B avem că B = A ∪ (B \ A) cu A ∩ (B \ A) = ∅. Folosind pozitivitatea lui
(p2)
P obţinem P (B) = P (A) + P (B \ A) ≥ P (A).
Afirmaţia c) rezultă din b) aplicat pentru A ⊂ Ω, A ∈ F şi (p1).
d) are loc ı̂ntrucât pentru A ∈ F avem A ∪ Ac = Ω deci P (A) + P (Ac ) = P (Ω) = 1.
(p2) (p2)
Pentru A, B ∈ F avem P (A ∪ B) = P (A) + P (B \ A) = P (A) + (P (B) − P (A ∩ B)), deci
afirmaţia e) este demonstrată. q.e.d.

Exemplul 1. Pentru experimentul aruncarea unei monezi considerăm următorul spaţiu de pro-
babilitate (Ω, F, P ):
Ω = {ban, stemă}, F = {∅, ban, stemă, Ω}, P : F −→ [0, 1],
P (ban) = P (stemă) = 21 .

Exemplul 2. Pentru experimentul aruncarea unui zar considerăm următorul spaţiu de probabi-
litate (Ω, F, P ):
Ω = {1, 2, 3, 4, 5, 6}, F = P(Ω), P : F −→ [0, 1],
P (1) = P (2) = . . . = P (6) = 61 .

Exemplul 3. Pentru experimentul extragerea unei bine dintr-o urnă cu n bile având culori
diferite (c1 , c2 , . . . , cn ) considerăm următorul spaţiu de probabilitate (Ω, F, P ):
Ω = {c1 , c2 , . . . , cn }, F = P(Ω), P : F −→ [0, 1],
P (c1 ) = P (c2 ) = . . . = P (cn ) = n1 .

14
Remarcă. Dacă Ω este finit (situaţia celor 3 exemple) atunci este suficient să definim probabi-
litatea P pe mulţimea evenimentelor elementare.
Teoremă 2.3.4. (G. Boole, H. Poincare) Fie (Ω, F, P ) un spaţiu de probabilitate şi A1 , A2 , . . . ∈
F. Atunci pentru orice n ∈ N∗ avem:
n
[ X \
(i) P ( Ai ) = (−1)card(L)+1 P ( Ai ).
i=1 L⊂{1,2,...,n} i∈L
\n X [ n
X
card(L)+1
(ii) P ( Ai ) = (−1) P( Ai ) ≥ P (Ai ) − (n − 1);
i=1 L⊂{1,2,...,n} i∈L i=1
[ X
(iii) P ( Ai ) ≤ P (Ai ).
i∈N∗ i∈N∗ X
\
(iv) P ( Ai ) ≥ 1 − P (Aci ).
i∈N∗ i∈N∗

Demonstraţie. Relaţia de la punctul (i) se demonstrează prin inducţie după n ∈ N∗ . Cazul


a două evenimente rezultă din Propoziţia 2.3.3 e).
Presupunem ı̂n continuare că relaţia are loc pentru n evenimente şi o demonstrăm pentru
A1 , A2 , . . . , An , An+1 ∈ F. Folosind pasul n = 2 şi ipoteza de inducţie rezultă că:
n+1 n n
n=2
[ [ [
P( Ai ) = P ( Ai ) + P (An+1 ) − P (An+1 ∩ ( Ai )) =
i=1 i=1 i=1

n n
ip.induc.
[ [
P( Ai ) + P (An+1 ) − P ( (Ai ∩ An+1 )) =
i=1 i=1
X \ X \
(−1)card(L)+1 P ( Ai ) + P (An+1 ) − (−1)card(L)+1 P ( (Ai ∩ An+1 )) =
L⊂{1,2,...,n} i∈L L⊂{1,2,...,n} i∈L
X \ X \
(−1)card(L)+1 P ( Ai ) + P (An+1 ) + (−1)card(L) P (( Ai ) ∩ An+1 ) =
L⊂{1,2,...,n} i∈L L⊂{1,2,...,n} i∈L
X \
(−1)card(L)+1 P ( Ai ).
L⊂{1,2,...,n,n+1} i∈L

Egalitatea de
Xla punctul (ii) este o consecinţă a punctului (i) folosind legile lui De Morgan
şi faptul că (−1)card(L)+1 = 1.
L⊂{1,2,...,n}
(iii) Construim următorul şir de mulţimi (Bn )n∈N∗ :
n
[
B1 := A1 , Bn+1 := An+1 \ ( Ai ), n ∈ N∗ .
i=1

Remarcăm faptul că şirul de mulţimi nou definit are următoarele proprietăţi: (Bn )n∈N∗ ∈ F,
Bi ∩ Bj = ∅ pentru orice i 6= j şi Bn ⊂ Bn+1 pentru orice n ∈ N∗ . În plus, observăm că
[ [
Bi = Ai .
i∈N∗ i∈N∗

15
[ [
Întrucât din construcţia şirului de mulţimi Bn avem că inegalitatea Bi ⊂ Ai are loc,
[ i∈N∗ i∈N∗
rămâne de arătat inegalitatea inversă. Într-adevăr, dacă ω ∈ Ai atunci fie i0 ∈ N ∗ cel mai
[ i∈N∗
mic indice astfel ı̂ncât ω ∈ Ai0 . Prin urmare ω ∈ Bi0 ⊂ Bi , de unde rezultă ceea ce trebuia
i∈N∗
demonstrat.
Folosind Propoziţia 2.3.3 (b) şi definiţia probabilităţii obţinem:
[ [ (p2) X b) X
P( Ai ) = P ( Bi ) ≤ P (Bi ) ≤ P (Ai ).
i∈N∗ i∈N∗ i∈N∗ i∈N∗

(iv) Aplicând legile lui De Morgan rezultă că:


\ [ [ (iii) X
P( Ai ) = P (( Aci )c ) = 1 − P ( Aci ) ≥ 1 − P (Aci ).
i∈N∗ i∈N∗ i∈N∗ i∈N∗

Inegalitatea de la punctul (ii) este o consecinţă a lui (iv). q.e.d.


Lemă 2.3.5. (E. Borel - F.P. Cantelli) Fie (Ω, F, P ) un spaţiu de probabilitate şi A1 , A2 , . . . ∈
F. X
(i) Dacă P (An ) < ∞ atunci P (lim sup An ) = 0.
n→∞
n≥1
X
(ii) Dacă P (An ) = ∞ şi (An )n≥1 independente atunci P (lim sup An ) = 1.
n→∞
n≥1
[
Demonstraţie. (i) Considerăm şirul (Bn )n≥1 definit astfel: Bn := Ak , n ∈ N∗ . Întrucât
k≥n
şirul (Bn )n≥1 este descrescător (adică Bn+1 ⊂ Bn pentru orice n ∈ N∗ ) rezultă că există lim Bn
\ n→∞
şi lim Bn = Bn . Prin urmare
n→∞
n≥1
[ X
P (lim sup An ) = P ( lim Bn ) = lim P (Bn ) = lim P ( Ak ) ≤ lim P (Ak ) = 0,
n→∞ n→∞ n→∞ n→∞ n→∞
k≥n k≥n

unde inegalitatea
X are loc datorită Propoziţiei 2.3.4 (iii), iar ultima egalitate este consecinţa
faptului că P (Ak ) este restul unei serii convergente.
k≥n
[
(ii) Este suficient să demonstrăm că P ( Ak ) = 1. Pentru n ∈ N∗ avem
k≥n

[ [ \ m
\
c
P( Ak ) = 1 − P (( Ak ) ) = 1 − P ( Ack ) = 1 − P ( lim Ack ) =
m→∞
k≥n k≥n k≥n k=n

m m m
indep.
\ Y Y
1 − lim P ( Ack ) = 1 − lim P (Ack ) = 1 − lim (1 − P (Ak )) ≤
m→∞ m→∞ m→∞
k=n k=n k=n

16
m
X X
− P (Ak ) − P (Ak )
1 − lim e k=n =1−e k≥n = 1,
m→∞

inegalitatea fiind adevărată din aplicarea repetată a relaţiei 1 − x ≤ e−x pentru x = P (Ai ),
i ∈ 1, n şiX
ı̂nmulţind inegalităţile astfel obţinute, iar ultima egalitate fiind o consecinţă a ipotezei
că seria P (An ) este divergentă. q.e.d.
n≥1

Remarcă 2.3.6. Reciproca punctului (i) din Lema Borel-Cantelli nu este adevărată.

Contraexemplu. Considerăm (Ω, F, P ) următorul spaţiu de probabilitate:


Ω = (0, 1),
F = B((0, 1)) = σ-algebra Borel pe (0, 1) = σ(intervalelor deschise din (0, 1)),
P (A) = suma lungimii intervalelor care reunite dau A, A ∈ F (măsura Lebesgue pe (0, 1)).
1 1 1 1 1 2 1 1 11 1
Spre exemplu, P ([ , )) = , P ([0, ] ∪ ( , )) = + = , P ({ }) = 0.
3 2 6 5 2 3 5 6 30 8
Definim şirul descrescător de mulţimi (An )n≥1 prin An = (0, n1 ) (deci are limită) şi arătăm
\ \ \ 1
că An = ∅. Într-adevăr, dacă presupunem prin absurd că există x ∈ An = (0, ),
n≥1 n≥1 n≥1
n
1 1
obţinem că x ∈ (0, ) pentru orice n ≥ 1, deci n ≤ pentru orice n ≥ 1 (fals).
n x
Prin urmare,
\
P (lim sup An ) = P ( lim An ) = P ( An ) = P (∅) = 0,
n→∞ n→∞
n≥1

ı̂n condiţiile ı̂n care seria


X X 1 X1
P (An ) = P ((0, )) = este divergentă.
n≥1 n≥1
n n≥1
n

2.4 Evenimente independente


Spunem că două evenimente sunt independente unul faţa de celălalt dacă probabilitatea ca
unul din evenimente să apară nu afectează ı̂n nicun fel apariţia celuilalt eveniment. Formal, fie
(Ω, F, P ) un spaţiu de probabilitate.

Definiţie. Spunem că A, B ∈ F sunt evenimente independente dacă

P (A ∩ B) = P (A)P (B).

Dacă egalitatea din definiţie nu are loc atunci evenimentele se numesc dependente.

Definiţie. Spunem că evenimentele A1 , A2 , . . . ∈ F sunt independente dacă pentru orice


n ∈ N∗ şi 1 ≤ i1 ≤ i2 . . . ≤ in avem

P (Ai1 ∩ Ai2 ∩ . . . ∩ Ain ) = P (Ai1 )P (Ai2 ) . . . P (Ain ).

17
În particular, evenimentele A, B şi C sunt independente dacă:
P (A ∩ B) = P (A)P (B), P (B ∩ C) = P (B)P (C), P (A ∩ C) = P (A)P (C) şi
P (A ∩ B ∩ C) = P (A)P (B)P (C).
Exemplu. Singurele evenimente independente faţă de ele ı̂nsele sunt mulţimea vidă şi eveni-
mentul total.

Exemplu (S. Bernstain, 1880-1968). Se consideră un zar care are patru feţe. Faţa 1 este colorată
ı̂n culorile (c1 şi c2 ), faţa 2 este colorată ı̂n (c1 şi c3 ), faţa 3 este colorată ı̂n (c2 şi c3 ), iar faţa
4 conţine toate culorile culorile (c1 , c2 şi c3 ). Evenimentele ca la o aruncare să obţinem o faţă
care conţine (c1 şi c2 ), (c1 şi c3 ), (c2 şi c3 ) sunt independente două câte două, dar nu sunt
independente toate trei.
Notăm cu Ci,j evenimentul prin care am obţinut o faţă colorată ı̂n (ci şi cj ), i, j ∈ {1, 2, 3},
i 6= j. Modelăm experimentul descris prin următorul spaţiu de probabilitate (Ω, F, P ): Ω =
{c1 , c2 , c3 }, F = P(Ω), P : F −→ [0, 1],
2 1
P (C1,2 ) = P (C2,3 ) = P (C3,1 ) = = .
4 2
Evenimentele C1,2 ∩ C2,3 , C1,2 ∩ C1,3 , respectiv C2,3 ∩ C1,3 , descriu evenimente prin care după
aruncare apare o faţă care este colorată ı̂n toate cele trei culori. Întrucât există o singură faţă
care conţine toate culorile rezultă că pentru orice i, j, k ∈ {1, 2, 3}, diferite două câte două,
avem
1
P (Ci,j ∩ Cj,k ) = = P (Ci,j )P (Cj,k ).
4
Prin urmare, oricare două evenimente dintre C1,2 , C2,3 şi C1,3 sunt independente.
Folosind un raţionament similar obţinem că:
1 1
P (C1,2 ∩ C2,3 ∩ C1,3 ) = 6= P (C1,2 )P (C2,3 )P (C1,3 ) = .
4 8
Prn urmare cele 3 evenimente nu sunt independente.

Remarcă. Evenimentul total este independent de orice alt eveniment din F. Într-adevăr, dacă
A ∈ F atunci P (Ω ∩ A) = P (A) = P (Ω)P (A).

Exemplu. Doi jucători aruncă un zar corect de trei ori. Considerăm următoarele evenimente:
A1 : la prima aruncare să rezulte faţa ”ban (B)”, A2 : la a doua aruncare să rezulte faţa ”stemă
(S)”, respectiv A3 : la a treia aruncare să rezulte faţa ”ban (B)”. Sunt cele trei evenimente
independente două câte două? Dar toate trei?

Răspuns. Considerăm următorul spaţiu de probabilitate (Ω, F, P ):


Ω = {(BBB), (BBS), (BSB), (SBB), (BSS), (SBS), (SSB), (SSS)},
1
F = P(Ω), P : F −→ [0, 1], P (A) = pentru orice A ∈ F \ {∅, Ω}.
8
Întrucât evenimentul A1 ∪ A2 este reuniunea evenimentelor elementare {BSB} şi {BSS},
obţinem aplicând Propoziţia 2.3.3 e)

18
P (A1 ∩ A2 ) = P ({BSB}) + P ({BSS}) − P ({BSB} ∩ {BSS}) =
1 1 1
+ + P (∅) = = P (A1 )P (A2 ).
2 2 4
Similar se poate arătă că cele trei evenimente sunt independente două câte două.
Deoarece
1
P (A1 ∩ A2 ∩ A3 ) = P ({BSB}) = = P (A1 )P (A2 )P (A3 )
8
rezultă că cele trei evenimente sunt independente.

2.5 Probabilităţi condiţionate şi formula lui Bayes


Probabilitatea condiţionată ia ı̂n considerare dependenţa a două evenimente A şi B, prin evalu-
area probabilităţii evenimentului A ştiind că evenimentul B a avut loc. Această probabilitatea
se notează cu P (A|B) şi se numeşte probabilitatea lui A condiţionată de B.
Formal, fie (Ω, F, P ) un spaţiu de probabilitate.

Definiţie. Fie B un eveniment dat cu P (B) 6= 0. Definim probabilitatea evenimentului A


condiţionată de evenimentul B prin

P (A ∩ B)
(pc) P (A|B) = .
P (B)

În cazul particular când Ω este format din n evenimente elementare egal probabile, ı̂ntrucât
B reprezintă spaţiul cazurilor posibile, iar A ∩ B pe cel al cazurilor favorabile, obţinem că:

card(A ∩ B)
card(A ∩ B) n P (A ∩ B)
P (A|B) = = = .
card(B) card(B) P (B)
n
Remarcă. Fie A şi B două evenimente cu P (A) 6= 0 şi P (B) 6= 0. Atunci:

A, B independente ⇐⇒ P (A|B) = P (A) ⇐⇒ P (B|A) = P (B).

Intuitiv, două evenimete sunt independente dacă şi numai dacă probabilitatea apariţiei unui
eveniment nu depinde de realizarea sau nerealizarea celuilalt eveniment.

Propoziţia 2.5.1. Fie A1 , A2 , . . . , An evenimente cu P (A1 ∩ . . . ∩ Ai ) 6= ∅ pentru fiecare


i ∈ {1, 2, . . . , n − 1}. Atunci

P (A1 ∩ A2 ∩ . . . ∩ An ) = P (A1 )P (A2 |A1 )P (A3 |A1 ∩ A2 ) . . . P (An |A1 ∩ . . . An−1 ).

Demonstraţie. Utilizând definiţia probabilitătii condiţionate se ı̂nlocuiesc succesiv termenii


din membrul drept. q.e.d.

19
Definiţie. Numim sistem complet de evenimente pentru Ω o mulţime numărabilă (An )n≥1
de evenimente
[ pentru care au loc următoarele:
(i) An = Ω;
n≥1
(ii) Ai ∩ Aj 6= ∅ pentru orice i, j ∈ N∗ ;
(iii) P (Ai ) 6= 0 pentru orice i ∈ N∗ .
Propoziţia 2.5.2. Fie {A1 , A2 , . . . , An } un sistem complet de evenimente pentru Ω şi B un
eveniment oarecare. Atunci au loc următoarele:
(i) (Formula probabilităţii totale)
n
X
P (B) = P (Ak )P (B|Ak ).
k=1

(ii) (Formula lui Bayes)

P (Ai )P (B|Ai )
P (Ai |B) = n , unde P (B) > 0 şi i ∈ {1, 2, . . . , n}.
X
P (Ak )P (B|Ak )
k=1

Demonstraţie. (i) Folosind faptul că {A1 , A2 , . . . , An } este sistem complet de evenimente
[n
obţinem că B = (B ∩ Ak ), unde mulţimile B ∩ Ak , k = 1, n, sunt disjuncte două câte două.
k=1
Folosind definiţia probabilităţii şi a probabilităţii condiţionate rezultă că
n n
(p2) X (pc) X
P (B) = P (B ∩ Ak ) = P (Ak )P (B|Ak ).
k=1 k=1

(ii) Fie i ∈ {1, 2, . . . , n}. Folosind de două ori definiţia probabilităţii condiţionate şi punctul
(i) obţinem:
(pc) P (Ai ∩ B) (pc) P (Ai )P (B|Ak )
P (Ai |B) = = n .
P (B) (i) X
P (Ak )P (B|Ak )
k=1

q.e.d.
Problema biletelor favorabile. Din totalul de n bilete cu subiecte de examen, m dintre
acestea sunt favorabile pentru toţi studenţii care parcurg examenul, m ≤ n. Primul student
extrage un bilet şi nu ı̂l pune la loc. Similar, un al dolilea student extrage şi el un bilet. Care
dintre primii doi studenţi are şanse mai mari de a extrage un bilet favorabil? Dacă ar exista
un al treilea student, care este probabilitatea ca şi el să extragă un bilet favorabil?

Răspuns. Considerăm spaţiu de probabilitate (Ω, F, P ):


Ω = {1, 2, . . . , n} mulţimea biletelor,
F = P(Ω),
card(A)
P : F −→ [0, 1], P (A) = .
card(Ω)

20
Considerăm Ai evenimentul ca al i-lea student să extragă un bilet favorabil, i ∈ {1, 2, 3}.
m n−m
Rezultă imediat că P (A1 ) = şi P (Ac ) = 1 − P (A) = .
n n
Întrucât A1 şi Ac1 formează o partiţie a spaţiului Ω, din formula probabilităţii totale şi
definiţia probabilităţii condiţionate obţinem că:
(pc)
P (A2 ) = P (A2 ∩ A1 ) + P (A2 ∩ Ac1 ) = P (A2 |A1 )P (A1 ) + P (A2 |Ac1 )P (Ac1 ) =
m−1 m m n−m m
· + · =
n−1 n n−1 n n
Întrucât A1 ∩ A2 , A1 ∩ Ac2 , Ac1 ∩ A2 şi Ac1 ∩ Ac2 formează o partiţie a spaţiului Ω, din formula
probabilităţii totale şi definiţia probabilităţii condiţionate obţinem că:
(pc)
P (A3 ) = P (A3 ∩ A1 ∩ A2 ) + P (A3 ∩ A1 ∩ Ac2 ) + P (A3 ∩ Ac1 ∩ A2 ) + P (A3 ∩ Ac1 ∩ Ac2 ) =

P (A3 |A1 ∩ A2 )P (A1 ∩ A2 ) + P (A3 |A1 ∩ Ac2 )P (A1 ∩ Ac2 )+


(pc)
P (A3 |Ac1 ∩ A2 )P (Ac1 ∩ A2 ) + P (A3 |Ac1 ∩ Ac2 )P (Ac1 ∩ Ac2 ) =
P (A3 |A1 ∩ A2 )P (A1 )P (A2 |A1 ) + P (A3 |A1 ∩ Ac2 )P (A1 )P (Ac2 |A1 )+
P (A3 |Ac1 ∩ A2 )P (Ac1 )P (A2 |Ac1 ) + P (A3 |Ac1 ∩ Ac2 )P (Ac1 )P (Ac2 |Ac1 ) =
m−2 m m−1 m−1 m n−m
· · + · · +
n−2 n n−1 n−2 n n−1
m−1 n−m m m n−m n−m−1 m
· · + · · = .
n−2 n n−1 n−2 n n−1 n

Paradoxul Monty Hall. Joci un joc ı̂n care trebuie să alegi o uşa din trei, câştigul fiind ce
se află ı̂n spatele uşii. În spatele celor trei uşi se află o maşina şi două capre. Alegi o uşă, să
spunem uşa 1. Cineva care cunoaşte ce se află ı̂n spatele uşilor ı̂ţi deschide una din celelalte
două uşi, să spunem uşa 2, ı̂n spatele ei fiind o capră. Ţi se oferă apoi posibilitatea de a schimba
uşa selectată sau de a rămâne la alegerea iniţială. Care este cea mai bună strategie pentru a
câstiga maşina? Păstrezi alegerea iniţială (uşa 1) sau schimbi uşa (alegi uşa 3)?

Răspuns. Luăm ı̂n calcul toate cele 3 posibilităţi:


uşa 1 uşa 2 uşa 3 câştig - nu se schimbă uşa 1 câştig - se schimbă uşa 1
capră capră maşină capră maşină
capră maşină capră capră maşină
maşină capră capră maşină capră
Prin urmare strategia cea mai bună pentru a câştiga maşina este de a se schimba alegerea
iniţială. Mai precis rezultă că sunt 23 şanse dacă de a câştiga premiul cel mare dacă schimbă
uşa şi doar 31 şanse dacă rămâne la alegerea iniţială.
Rezultatul este contradictoriu pentru că este uşor a raţiona ı̂n sensul următor: dacă ştim ce
se află ı̂n spatele unei uşi, atunci rămân şanse egale de a câştiga premiul prin alegerea aleatoare
a uneia dintre celelalte două uşi. Însă acest raţionament nu este corect. Iniţial, când este aleasă

21
uşa 1, şansele sunt de 31 ca maşina să se afle ı̂n spatele uşii 1 şi 23 să se afle ı̂n spatele uşilor
rămase. Când uşa 2 este deschisă şi ı̂n spatele ei se află o capră, cele 23 şanse ca maşina să se
afle ı̂n spatele uşilor 2 sau 3 se transferă doar asupra uşii 2, ı̂ntrucât şansele ca maşina să se
afle după uşa 3 sunt nule.
Folosind formula lui Bayes problema se rezolvă astfel: considerăm Ui evenimentul ca maşina
să se afle după uşa i, i ∈ {1, 2, 3} şi D evenimentul ca uşa deschisă să fie 2. Din ipoteză avem că:
P (U1 ) = P (U2 ) = P (U3 ) = 31 , P (D|U1 ) = 21 , P (D|U2 ) = 0, P (D|U3 ) = 1. Pentru a stabili cea
mai bună strategie pentru a câştiga maşina calculăm P (U1 |D) (probabilitatea de a nu schimba
alegerea iniţială, se deschide uşa 1), respectiv P (U3 |D) (probabilitatea de a schimb alegerea
iniţială, se deschide uşa 3).
Aplicând Propoziţia 2.5.2 (ii) obţinem:

P (U1 )P (D|U1 ) 1
P (U1 |D) = = .
P (U1 )P (D|U1 ) + P (U2 )P (D|U2 ) + P (U3 )P (D|U3 ) 3
P (U3 )P (D|U3 ) 2
P (U3 |D) = = .
P (U1 )P (D|U1 ) + P (U2 )P (D|U2 ) + P (U3 )P (D|U3 ) 3

Paradoxul fals pozitiv. Un individ este bănuit că este bolnav de o boală foarte rară care
apare la un singur individ dintr-o populaţie de 10000. Acesta decide să se testeze dacă are
sau nu boala şi testul medical de detecţie al bolii pe care trebuie să ı̂l urmeze este pozitiv cu
probabilitate de 99%, adică dacă are boala atunci testul o detectează cu o probabilitate de 0.99,
iar dacă nu are boala atunci testul este pozitiv cu probabilitate de 0.1. Dacă rezultatul testului
urmat de individ este pozitiv, care sunt şansele ca să fi cu adevărat bolnav de boala rară?

Răspuns. Considerăm A evenimentul ca individul să aibă boala rară şi B evenimentul ca testul
urmat de individ să fie pozitiv. Astfel, P (B|Ac ) este probabilitatea obţinerii unui fals pozitiv,
adică probabilitatea ca individul să nu aibă boala rară şi totuşi testul urmat de acesta să rezulte
pozitiv.
Din ipoteză rezultă că P (A) = 0.0001, P (B|A) = 0.99 şi P (B|Ac ) = 0.1. Atunci, folosind
Propoziţia 2.5.2 (ii) obţinem că probabilitatea ca individul să aibă boala ı̂n condiţiile ı̂n care
testul a rezultat pozitiv este de sub 1%:

P (A)P (B|A) 0.0001 · 0.99


P (A|B) = = ≈ 0.00001.
P (B|A)P (A) + P (B|Ac )P (Ac ) 0.99 · 0.0001 + 0.1 · 0.9999

Rezultatul este suprizător, explicaţia fiind dată de faptul că boala este atât de rară ı̂ncât
numărul situaţiilor tip fals pozitiv depăşesc cu mult numărul persoanelor care chiar au această
boală. Se poate vedea că probabilitatea ca individul să aibă boala ı̂n condiţiile ı̂n care testul a
rezultat pozitiv creşte dacă scădem numărul situaţiilor de fals pozitiv.

2.6 Probleme propuse


Problema 1. Să se arate că B(R) = σ(M), unde mulţimea M este:
a) M = {A ⊂ R | A mulţime ı̂nchisă ı̂n R};
b) M = σ({(a, b) | a, b ∈ R, a < b};

22
c) M = σ({[a, b) | a, b ∈ R, a < b};
d) M = σ({(a, b] | a, b ∈ R, a < b};
e) M = σ({[a, b] | a, b ∈ R, a < b};
f ) M = σ({(a, ∞] | a ∈ R};
g) M = σ({[a, ∞) | a ∈ R};
h) M = σ({(−∞, a) | a ∈ R};
i) M = σ({(−∞, a] | a ∈ R}
\
Problema 2. Fie S ⊂ P(Ω). Arătaţi că mulţimea F este o σ-algebră care coincinde
F σ−algebra
S⊂F
cu σ(S).

Problema 3. (Acul lui Buffon) În plan este trasată o reţea de drepte paralele, echidistante, la
distanţa 1, una de alta. Se aruncă un ac de lungime 0, 5. Care este probabiliatea ca acul să
atingă reţeaua?

Problema 4. Se alege la ı̂ntâmplare un triunghi, din mulţimea tuturor triunghiurilor. Care este
probabilitatea ca triunghiul să fie ascuţitunghic, obtuzunghic, respectiv dreptunghic?

Problema 5. Alegem la ı̂ntâmplare o firmă din mulţimea firmelor cu n acţionari. Care este
probabilitatea ca firma aleasă să aibă un acţionar majoritar.

Problema 6. Dacă A şi B sunt două evenimente independente, atunci A şi B c , Ac şi B, precum
şi Ac şi B c sunt deasemenea evenimente independente.

Problema 7. Intersecţia a două evenimente independente având probabilităţi nenule este nevidă.

Problema 8. Dacă A, B ∈ F sunt două evenimente oarecare atunci să se arate că:
a) P (A4B) = P (A) + P (B) − 2P (A ∩ B), unde A4B = (A \ B) ∪ (B \ A) este diferenţa
simetrică dintre A şi B;
b) max(P (A), P (B)) ≤ P (A ∪ B) ≤ 2 max(P (A), P (B));
c) |P (A ∩ B) − P (A ∩ C)| ≤ P (B4C);
d) P (A ∩ B) · P (A ∪ B) ≤ P (A)P (B);
e) P 2 (A ∪ B) + P 2 (A ∩ B) = P 2 (A) + P 2 (B) + 2P (A ∩ B c ) · P (Ac ∩ B).

Problema 9. Un cuplu plănuieşte să aibă trei copii. Evenimentul ca primii doi copii ai cuplului
să fie băieţi este independent de evenimentul ca al treilea copil să fie tot băiat? Dar fată? (R:
evenimentele sunt independente)

Problema 10. (Paradoxul naşterilor) Care este probabilitatea ca dintr-o clasă de 23 de studenţi
cel puţin doi să fie născuţi ı̂n aceeaşi zi a anului? (se consideră anul de 365 de zile). Care este
probabilitatea ca ı̂n aceeaşi clasă să avem un student născut ı̂n aceeaşi zi cu profesorul? (R:
≈ 0.5, ≈ 0.05)

23
Problema 11. (Paradoxul băiat-fată) Un cuplu are doi copii. Copilul mai mare este băiat. Care
este probabilitatea ca ambii copii să fie băieţi? (R: 13 )

Problema 12. Doi jucători, J1 şi J2 , aruncă alternativ două zaruri, ı̂ncepând cu jucătorul J1.
Câştigă jocul cel care obţine 11 puncte. Care este probabilitatea ca J1 să câştige jocul? Dar
J2 ? (R: 18 17
35 ≈ 0.51..., 35 ≈ 0.49....)

Problema 13. (Problema celor 3 prizonieri) Trei prizonieri aflaţi ı̂n celule diferite sunt condamnaţi
la moarte şi urmează a fi executaţi. Pentru unul dintre ei se ia decizia graţierii, iar singurul
care cunoaşte identitatea celui care nu va fi executat este gardianul care ı̂i păzeşte. Primul
prizonier ı̂l roagă pe gardian să ı̂i spună numele prizonierului care va fi executat astfel: dacă
prizonierul al doilea va fi graţiat ı̂l roagă să ı̂i spună numele celui de-al treilea prizonier, dacă
prizonierul al treilea va fi graţiat ı̂l roagă să ı̂i spună numele celui de-al doilea prizonier, iar
dacă el ı̂nsuşi va fi graţiat ı̂l roagă să arunce cu banul şi să aleagă unul din numele celorlalţi
doi prizonieri. Gardianul ı̂i spune primului prizonier că al doilea prizonier va fi executat. Cine
are probabilitate mai mare să fie graţiat?
Indicaţie. Problema este echivalentă cu paradoxul Monty Hall; probabilitatea ca primul prizonier să
fie graţiat este 31 , iar ca al treilea prizonier să fie graţiat este de 23 ).

Problema 14. (Problema concordanţelor) La un bal dansant participă n cupluri soţ-soţie.


Perechile de dans se aleg aleator prin tragere la sorţi. Care este probabilitatea ca niciun bărbat
să nu danseze cu soţia sa?
Indicaţie. Se consideră Ω = spaţiul permultărilor mulţimii {1, 2, . . . , n}, F = P(Ω), iar P (A) =
card(A)
card(Ω) , A ∈ F. Se consideră evenimentul A ca niciun bărbat să nu danseze cu soţia sa, respectiv
[n
evenimentele Ai ca bărbatul i să danseze cu soţia sa, i = 1, n şi se observă că Ac = Ai . Se utl-
i=1
n
X (−1)i
izează Teorema 2.3.4 b) şi se obţine P (A) = .
i!
i=0
Problema 15. Fie (Ω, F, P ) un spaţiu de probabilitate, n ∈ N∗ şi {A1 , A2 , . . . , An } o mulţime
de evenimente independente. Considerăm evenimentul A : ”cel puţin unul dintre evenimentele
Ai se produce”. Arătaţi că:
n
X
n
X − P (Ai )
P (Ai ) ≥ P (A) ≥ 1 − e i=1 .
i=1
n
[
Indicaţie. Se foloseşte faptul că A = Ai .
i=1
Problema 16. (Problema lui Ali Baba) Considerăm două urne identice care conţin ı̂mpreună n
bile albe, respectiv m bile negre. La ce repartizare a bilelor ı̂n cele două urne, probabilitatea
de a extrage o bilă albă din una din urne este maximă?
Indicaţie. Se calculează probabilitatea de a se extrage o bilă albă şi se obţine 12 ( x+y
x m−x
+ m+n−x−y ), unde
x şi y reprezintă numărul de bile albe, respectiv negre, din prima urnă (de exemplu). Se observă că
expresia ı̂şi atinge maximul pentru x = 1 şi y = 0, adică probabilitatea este maximă când ı̂n una din

24
urne există o singură bilă albă şi nicio bilă neagră.

Problema 17. Fie (Ω, F, P ) un spaţiu de probabilitate astfel ı̂ncât card(Ω) < ∞ şi {A1 , A2 , . . . ,
An } o mulţime de evenimente independente cu 0 < P (Ai ) < 1 pentru orice i ∈ {1, 2, . . . , n}.
a) Arătaţi că n ≤ log2 (card(Ω));
b) Să se construiască un spaţiu de probabilitate (Ω, F, P ) ca ı̂n enunţ.
Indicaţie. Pentru orice vector de tipul (1 , 2 , . . . , n ) cu i ∈ {0, 1} avem că evenimentul A11 ∩ A22 ∩
. . . ∩ Ann 6= ∅, unde s-a notat A0i = Ai , respectiv A1i = Aci . Aplicând Propoziţia 2.3.3 b) obţinem că
afirmaţia a) are loc ı̂ntrucât mulţimea {A11 ∩A22 ∩. . .∩Ann | (1 , 2 , . . . , n ) ∈ {0, 1}n } ⊂ Ω şi are exact
2n elemente. Un exemplu de spaţiu de probabilitate este următorul: Ω = {1 , 2 , . . . , n | i ∈ {0, 1}},
F = P(Ω), P (A) := card(A) card(Ω) , pentru A ∈ F. Se consideră Ai := {1 , 2 , . . . , n ) | i = 0, j ∈
{0, 1} pentru orice j 6= i} ∈ F, i = 1, n şi se arată că {A1 , A2 , . . . , An } este o mulţime de evenimente
independente.

2.7 Simulări cu Mathematica


Problema 1. (Paradoxul naşterilor) Să se simuleze:
(i) generarea aleatoare a p numere naturale din intervalul {1,2,. . . ,365} (aferente zilelor de
naştere a p persoane) şi să se verifice dacă cel puţin două dintre acestea sunt egale sau nu (care
va corespunde faptului dacă două persoane sunt sau nu născute ı̂n aceeaşi zi).
(ii) probabilitatea ca două persoane din cele p să fie născute ı̂n aceeaşi zi dacă repetăm exper-
imentul de n de ori.
(iii) şirul probabilităţilor ca două persoane să fie născute ı̂n acceaşi zi dacă repetăm experi-
mentul de n de ori pentru un număr de persoane din mulţimea {2, . . . , p}.

Răspuns.

(i) listanumere = Table[Random[Integer, {1, 365}], {p}]


If[Sort[listanumere] =!= Union[listanumere],
Print["Exista doua persoane nascute in aceeasi zi!"],
Print["Nu exista doua persoane nascute in aceeasi zi!"]]

(ii) M = 0;
Do[{listanumere[i] = Sort[Table[Random[Integer, {1, 365}], {p}]]
If[Union[listanumere[i]] =!= Sort[listanumere[i]], M = M + 1]},
{i, n}]
N[M/n]

(iii) f[persoane ] := (c = 0; Do[{list[i] = Sort[Table[Random[Integer,


{1, 365}], {persoane}]] If[ Union[list[i]] =!= Sort[list[i]],
c = c + 1]}, {i, n}]; N[c/n])
date = Table[{persoane, f[persoane]}, {persoane, 2, p}]
ListPlot[date, PlotRange -> {{0, p}, {0, 1}}, AxesLabel -> {
" Numar de persoane", "Probabilitate"}]

25
Exemplu. Dacă alegem de exemplu n = 1000 şi p = 100, printr-o rulare a rutinei de mai sus
obţinem următorul rezultat:

{3, 0.001}, {4, 0.007}, {5, 0.017}, {6, 0.027}, {7, 0.043},
{8, 0.054}, {9, 0.071}, {10, 0.099}, {11, 0.103}, {12, 0.153},
{13, 0.173}, {14, 0.202}, {15, 0.201}, {16, 0.239}, {17, 0.294},
{18, 0.334}, {19, 0.324}, {20, 0.366}, {21, 0.406}, {22, 0.434},
{23, 0.471}, {24, 0.522}, {25, 0.537}, {26, 0.587}, {27, 0.607},
{28, 0.624}, {29, 0.647}, {30, 0.713}, {31, 0.727}, {32, 0.737},
{33, 0.74}, {34, 0.773}, {35, 0.798}, {36, 0.825}, {37, 0.842},
{38, 0.852}, {39, 0.862}, {40, 0.851}, {41, 0.892}, {42, 0.902},
{43, 0.921}, {44, 0.918}, {45, 0.918}, {46, 0.949}, {47, 0.956},
{48, 0.964}, {49, 0.964}, {50, 0.967}, {51, 0.963}, {52, 0.974},
{53, 0.981}, {54, 0.98}, {55, 0.98}, {56, 0.992}, {57, 0.986},
{58, 0.99}, {59, 0.996}, {60, 0.991}, {61, 0.995}, {62, 0.992},
{63, 0.995}, {64, 0.995}, {65, 0.997}, {66, 0.998}, {67, 0.996},
{68, 0.999}, {69, 1.}, {70, 0.998}, {71, 1.}, {72, 0.998},
{73, 1.}, {74, 0.999}, {75, 0.999}, {76, 1.}, {77, 1.}, {78, 1.},
{79, 1.}, {80, 1.}, {81, 1.}, {82, 1.}, {83, 1.}, {84, 1.},
{85, 1.}, {86, 1.}, {87, 1.}, {88, 1.}, {89, 1.}, {90, 1.},
{91, 1.}, {92, 1.}, {93, 1.}, {94, 1.}, {95, 1.}, {96, 1.},
{97, 1.}, {98, 1.}, {99, 1.}, {100, 1.}

Figura 3: Număr persoane / Probabilitate

Reprezentăm ı̂n continuare graficul număr de persoane/probabilitate pentru datele de mai


sus folosind formula probabilităţii ca două persoane din p să fie născute ı̂n aceeaşi zi (obţinută
teoretic):
Ap365
P =1− .
365p
date = Table[{ k, 1-365!/((365-k)!365ˆk) }, { k, 2, 100 }]

26
ListPlot[data, date, PlotRange -> {{0, 100}, {0, 1}}, AxesLabel ->
{" Numar de persoane", "Probabilitate"}]

Figura 4: Număr persoane / Probabilitate

Problema 2. Considerăm experimentul aruncării cu 2 zaruri şi ne interesează sa simulăm


probabilitatea obţinerii unei duble. Astfel, repetăm experimentul de n ori şi calculăm de fiecare
dată probabilitatea obţinută. Să se scrie rutina care simulează obţinerea probabilităţii dacă
repetăm experimentul de n-ori.

Clear[f]
zar1 := Random[Integer, {1, 6}]
zar2 := Random[Integer, {1, 6}]
f[arg ] := (c = 0; Do[{i, If[zar1 == zar2, c = c + 1]},
{i, arg}]; N[c/arg])
date = Table[{nraruncari, f[nraruncari]}, {nraruncari, 1, n}]
ListPlot[date, PlotRange -> {{0, n}, {0, 1}}, AxesLabel ->
{" Numar de aruncari", "Probabilitate"}]

Exemplu. Dacă alegem de exemplu n = 50, printr-o rulare a rutinei de mai sus obţinem
următorul rezultat:

{1, 0.}, {2, 0.}, {3, 0.333333}, {4, 0.}, {5, 0.}, {6, 0.166667},
{7, 0.}, {8, 0.25}, {9, 0.}, {10, 0.2}, {11, 0.}, {12, 0.25},
{13, 0.0769231}, {14, 0.142857}, {15, 0.}, {16, 0.25}, {17, 0.294118},
{18, 0.388889}, {19, 0.105263}, {20, 0.1}, {21, 0.333333},
{22, 0.272727}, {23, 0.130435}, {24, 0.0416667}, {25, 0.12},
{26, 0.307692}, {27, 0.185185}, {28, 0.285714}, {29, 0.275862},
{30, 0.233333}, {31, 0.16129}, {32, 0.21875}, {33, 0.151515},
{34, 0.147059}, {35, 0.114286}, {36, 0.138889}, {37, 0.162162},
{38, 0.157895}, {39, 0.25641}, {40, 0.175}, {41, 0.268293},

27
{42, 0.166667}, {43, 0.186047}, {44, 0.113636}, {45, 0.111111},
{46, 0.0652174}, {47, 0.106383}, {48, 0.125}, {49, 0.244898},
{50, 0.18}

Figura 5: Număr aruncări (50) / Probabilitate

Reprezentăm ı̂n continuare graficele obţinute ı̂n cazul a 100, 500, respectiv 1000 de aruncări
1
şi observăm cum şirul probabilităţilor se stabilizează ı̂n jurul valori , valoarea probabilităţii
6
obţinută teoretic.

Figura 6: Număr aruncări (100) / Probabilitate

28
Figura 7: Număr aruncări (500) / Probabilitate

Figura 8: Număr aruncări (1000) / Probabilitate

Problema 3. Aflaţi probabilitatea de a selecta la ı̂ntâmplare un număr prim de forma 5N + 2


dintre primele 10000 de numere prime.

Probability[Mod[#, 5] == 2 &, Table[Prime[k], {k, 10000}]] // N


0.2509

Problema 4. Doi jucători, J1 şi J2 , aruncă alternativ două zaruri, ı̂ncepând cu jucătorul J1.
Câştigă jocul cel care obţine 11 puncte. Care este probabilitatea ca J1 să câştige jocul? Dar
18
J2 ? (R: 35 ≈ 0.51..., 17
35 ≈ 0.49....)

Răspuns.
zar1 := RandomInteger[{1, 6}];
zar2 := RandomInteger[{1, 6}];
j1j2 := Module[{j1 = 0, j2 = 0, i, c = 0},

29
For[i = 0, i < 10000, i++,
c = 0
While[zar1 + zar2 != 11, c = c + 1]
If[Mod[c, 2] == 0, j1 = j1 + 1, j2 = j2 + 1]] ;
{j1/10000, j2/10000}]
list = Table[j1j2, {k, 100}];
list1 = Table[{k, First@list[[k]]}, {k, 1, 100}];
list2 = Table[{k, Last@list[[k]]}, {k, 1, 100}];
ListPlot[{list1, list2}, PlotStyle -> {AbsolutePointSize[6]}]

Figura 9: Probabilitatea să câştige J1, respectiv J2

Problema 5. Aflaţi probabilitatea ca alegând la ı̂ntamplare două numere naturale acestea să
6 1
fie prime ı̂ntre ele. (R. 2 = )
π ζ(2)
Răspuns.
Total[Boole[Table[GCD[m, n]==1, {m, 100}, {n, 100}]], 2]/ 10000 // N
0.6087

f[margine ] := Total[Boole[Table[GCD[m, n]==1, {m, margine},


{n, margine}]], 2]/ margine2 // N
data = Table[{margine, f[margine]}, {margine, 10, 100}]

ListPlot[data, PlotRange -> {{-10, 100}, {0, 1}}, Filling -> Axis]

30
Figura 10: Probabilitatea ca cele două numere să fie prime

{10, 0.63}, {11, 0.68595}, {12, 0.631944}, {13, 0.680473},


{14, 0.647959}, {15, 0.635556}, {16, 0.621094}, {17, 0.6609},
{18, 0.626543}, {19, 0.66205}, {20, 0.6375}, {21, 0.632653},
{22, 0.617769}, {23, 0.648393}, {24, 0.623264}, {25, 0.6384},
{26, 0.62574}, {27, 0.62963}, {28, 0.616071}, {29, 0.640904},
{30, 0.616667}, {31, 0.639958}, {32, 0.631836}, {33, 0.630854},
{34, 0.621972}, {35, 0.626122}, {36, 0.61034}, {37, 0.630387},
{38, 0.622576}, {39, 0.622617}, {40, 0.611875}, {41, 0.629982},
{42, 0.613946}, {43, 0.631152}, {44, 0.62345}, {45, 0.619753},
{46, 0.613894}, {47, 0.629697}, {48, 0.617622}, {49, 0.627655},
{50, 0.6188}, {51, 0.619377}, {52, 0.613536}, {53, 0.627625},
{54, 0.616941}, {55, 0.621157}, {56, 0.614477}, {57, 0.615266},
{58, 0.61088}, {59, 0.623671}, {60, 0.611944}, {61, 0.624295},
{62, 0.619927}, {63, 0.618544}, {64, 0.61499}, {65, 0.618935},
{66, 0.609504}, {67, 0.620851}, {68, 0.616566}, {69, 0.617307},
{70, 0.609592}, {71, 0.620313}, {72, 0.612461}, {73, 0.622819},
{74, 0.619248}, {75, 0.617067}, {76, 0.6134}, {77, 0.617811},
{78, 0.609961}, {79, 0.619612}, {80, 0.614219}, {81, 0.615607},
{82, 0.612582}, {83, 0.621716}, {84, 0.613804}, {85, 0.617163},
{86, 0.614251}, {87, 0.615009}, {88, 0.611441}, {89, 0.619997},
{90, 0.612222}, {91, 0.61623}, {92, 0.613303}, {93, 0.614059},
{94, 0.611476}, {95, 0.614626}, {96, 0.608832}, {97, 0.61675},
{98, 0.612974}, {99, 0.612897}, {100, 0.6087}
6 1
Se observă că rezultatele obţinute sunt apropiate de 2 =
π ζ(2)
N[1/Zeta[2]]
0.607927

31
Remarcă. În general, probabilitatea ca s numere naturale a1 , ..., as să fie relativ prime ı̂ntre
1
ele este , unde ζ(s) este funcţia lui Riemann definită prin:
ζ(s)
X 1
ζ(s) =
n≥1
ns

32
3 Variabile aleatoare discrete
3.1 Definiţia variabilei aleatoare şi funcţia de repartiţie asociată
În multe situaţii din viaţa de zi cu zi suntem interesaţi să cuantificăm, din diverse perspec-
tive, rezultatele obţinute ca urmare a unui experiment aleator.

Exemplul 1. Considerăm experimentul aruncării simultane cu 3 zaruri şi suntem interesaţi de


numărul de apariţii a unei cifre pare, de apariţie a unui număr mai mare strict ca 3 sau orice
alt tip de numărare care implică rezultate experimentului.

Fiind dat un experiment aleator având spaţiul stărilor Ω, numim variabilă aleatoare o
funcţie X : Ω −→ R care asociază unui element din Ω un unic număr real. Mulţimea valorilor
pe care le poate lua X se numeşte imaginea lui X, notată ı̂n continuare Im(X).
Variabilele aleatoare se notează de regulă cu majuscule: X, Y , Z, . . . .

În exemplul anterior observăm că Ω = {(1, 1, 1), (1, 1, 2), . . . , (6, 6, 6)} iar cele două variabile
aleatoare considerate au drept imagine mulţimea {0, 1, 2, 3}.

Definim ı̂n continuare riguros noţiunea de variabilă aleatoare.


Definiţie 3.1.1. Fie (Ω, F, P ) un spaţiu de probabilitate. O funcţie X : Ω −→ R se numeşte
variabilă aleatoare pe Ω dacă pentru orice mulţime B ∈ B(R) avem că X −1 (B) := {ω | X(ω) ∈
B} ∈ F.
Potrivit problemei 1, secţiunea 2.6, următorul rezultat are loc:
Remarcă 3.1.2. Următoarele afirmaţii sunt echivalente:
(i) X : Ω −→ R variabilă aleatoare.
(ii) X −1 ((−∞, r]) := {ω | X(ω) ≤ r} ∈ F pentru orice r ∈ R.
Exemplul 2. Considerăm experimentul ı̂nvârtirii unei rulete europene (care conţine numerele
{0, 1, 2, . . . , 36}) până la obţinerea numărului 10. Observăm că ı̂n acest caz Ω = {10, 0 − 10, 1 −
10, . . . , 36 − 10, 0 − 0 − 10, 0 − 1 − 10, . . . 36 − 36 − 10, . . .} unde s-a considerat lanţul de numere
obţinute până la apariţia numărului 10. Astfel, putem defini variabila aleatoare X care reţine
numărul de ı̂nvârtiri ale ruletei până la obţinerea numărului 10 prin asocierea lanţului obţinut
cu lungimea acestuia. Spre exemplu, X({1 − 15 − 23 − 10}) = 4, X(10) = 1. În acest caz
imaginea lui X este N.
Exemplul 3. Fie (Ω, F, P ) un spaţiu de probabilitate şi A ∈ F. Funcţia X = 1A : Ω −→ R
definită prin (
1 dacă ω ∈ A
X(ω) = 1A (ω) = , ω ∈ Ω,
0 dacă ω 6∈ A
este o variabilă aleatoare şi se numeşte funcţia indicator a lui A.

Exemplul 4. Fie (Ω, F, P ) un spaţiu de probabilitate şi a ∈ R. Funcţia X : Ω −→ R definită


prin
X(ω) = a, ω ∈ Ω,

33
este o variabilă aleatoare şi se numeşte variabilă aleatoare constantă a. Aceasta se notează
simplu cu a.

Exemplul 5. Dacă Ω = R şi F = B(R) atunci orice funcţie continuă X : R → R este variabilă
aleatoare (funcţiile continue ı̂ntorc deschişi ı̂n deschişi).

Propoziţia 3.1.3. Fie X, Y variabile aleatoare şi α ∈ R. Atunci, următoarele funcţii sunt
variabile aleatoare:
1 X
α + X, α · X, X 2 , , |X|, X + Y , X − Y , X · Y , , min(X, Y ), max(X, Y )
X Y
Demonstraţia propoziţiei rămâne ca exerciţiu.

Definiţie 3.1.4. Se numeşte funcţie de distribuţie (repartiţie) a variabilei aleatoare X,


funcţia FX : R −→ R definită prin:

FX (x) = P (X ≤ x), x ∈ R

Remarcă. Cu ajutorul funcţiei de distribuţie se poate calcula probabilitatea ca o variabilă


aleatoare X să ia valori ı̂ntr-un interval oarecare (a, b]. Mai precis,

P (X ∈ (a, b]) = FX (b) − FX (a).

Într-adevăr, deoarece mulţimile {X ≤ a} şi {a < X ≤ b} sunt disjuncte iar reuniunea lor
este {X ≤ b}, folosind (p2) obţinem:
FX (b) = P (X ≤ b) = P (X ≤ a) + P (a < X ≤ b) = FX (a) + P (X ∈ (a, b]).

Propoziţia 3.1.5. (caracterizarea funcţiilor de repartiţie) Următoarele afirmaţii sunt adevărate:


(i) pentru orice x, y ∈ R cu x < y avem F (x) ≤ F (y) (FX este o funcţie nedescrescătoare);
(ii) FX continuă la dreapta pe R şi cu limită la stânga ı̂n orice punct.
(iii) FX mărginită pe [0, 1], lim FX (x) = 0, lim FX (x) = 1.
x→−∞ x→∞
(iv) FX are un număr cel mult numărabil de puncte de discontinuitate (de prima speţă).
Reciproc, dacă o funcţie F : R → R are proprietăţile (i), (ii), (iii), atunci ea este funcţia
de repartiţie a unei variabile aleatoare pe un spaţiu de probabilitare anume ales (a se vedea
Problema 1).

Demonstraţia propoziţiei rămâne ca exerciţiu.

3.2 Variabile aleatoare discrete


O mulţime A se numeşte numărabilă dacă este finită sau există o aplicaţie f : A −→ N
bijectivă.

Definiţie 3.2.1. X se numeşte variabilă aleatoare discretă dacă imaginea variabilei X este
o mulţime cel mult numărabilă.

34
În exemplele anterioare au fost considerate variabile aleatoare discrete.

Exemplul 6. Dacă Ω este numărabilă atunci orice variabilă aleatoare definită pe Ω este o
variabilă aleatoare discretă.

Definiţie 3.2.2. X se numeşte variabilă aleatoare simplă dacă imaginea variabilei X este
o mulţime finită.

O variabilă aleatoare simplă este variabilă aleatoare discretă.

Exemplul 7. Fie (Ω, F, P ) un spaţiu de probabilitate, {A1 , A2 , . . . , An } un sistem complet de


evenimente pentru Ω şi {α1 , α2 , . . . , αn } ⊂ R. Funcţia X : Ω −→ R definită prin
n
X
X(ω) = αi 1Ai (ω), ω ∈ R
i=1

este o variabilă aleatoare simplă.

Definiţie 3.2.3. Se numeşte repartiţia (sau distribuţia) variabilei aleatoare discrete X


asocierea
(xi , P ({X = xi }))i∈I
unde Ω = {xi | i ∈ I}, I numărabilă şi {X = xi } := {ω | X(ω) = xi }.

De regulă această asociere se evidenţiază sub formă de matrice infinită astfel:


 
x1 x2 ... xi ...
X:
P ({X = x1 }) P ({X = x2 }) · · · P ({X = xi }) . . .
Întrucât evenimentul {X = xi } ∈ F are sens P ({X = xi }), care se notează prescurtat
P (X = xi ).

Cum mulţimea {X = xi }i∈I formează un sistem complet de evenimente pentru Ω, folosind


(p2) rezultă că X
P (X = xi ) = P (Ω) = 1.
i∈I

În exemplul 1, P (X = i) este probabilitatea de a obţine exact i numere pare după aruncarea
celor 3 zaruri, i ∈ {0, 1, 2, 3}, repartiţia variabilei aleatoare care numără apariţia unei cifre pare
fiind: !
0 1 2 3
X: 1 3 3 1 .
8 8 8 8
Repartiţia variabilei aleatoare 1A (exemplu 3, funcţia indicator a evenimentului A) este:
 
0 1
1A : .
P (A) P (Ac )

35
Repartiţia variabilei aleatoare a (exemplu 4, variabila constantă a) este:
 
a
a: .
1

Remarcă. În contextul celor de mai sus, o asociere de tipul (xi , pi )i∈I reprezintă repartiţia unei
variabilei aleatoare discrete dacă următoarele condiţii au loc:
a) pi ≥ 0X pentru orice i ∈ I.
b) seria pi este convergentă şi suma seriei este 1.
i∈I

Remarcă. Fie (xi )i∈I un şir crescător şi X o variabilă aleatoare discretă cu repartiţia
 
x1 x2 ... xi ...
X: .
P (X = x1 ) P (X = x2 ) · · · P (X = xi ) . . .

Întrucât evenimentele {X = xi }i∈I sunt disjuncte două câte două atunci funcţia de repartiţie
este 

 0 , dacă x < x1

P (X = x1 ) , dacă x ∈ [x1 , x2 )





P (X = x1 ) + P (X = x2 ) , dacă x ∈ [x2 , x3 )


(p2) X
FX (x) = P (X = xi ) = . . .

xi ≤x  X
P (X = xk ) , dacă x ∈ [xi , xi+1 )





 0≤k≤i


...

Definiţie 3.2.4. Se numeşte funcţia de probabilitate a variabilei aleatoare X, funcţia


fX : R −→ R definită prin:
(
P (X = xi ) , dacă x = xi , i ∈ I
fX (x) = .
0 , ı̂n rest

Remarcăm că : X X
FX (x) = f (xi ) = P (X = xi ).
i∈I,xi ≤x i∈I,xi ≤x

Problemă. Considerăm experimentul aruncării unei monezi de două ori şi X variabila aleatoare
care numără apariţiile feţei stemă. Să se scrie funcţiile de probabilitate şi repartiţie asociate
variabilei X.
Răspuns. 
P (X = 0) , dacă x = 0,  1
 4 , dacă x ∈ {0, 2}



P (X = 1) , dacă x = 1, 
fX (x) = = 21 , dacă x = 1, .
 P (X = 2) , dacă x = 2, 
0 , ı̂n rest

 

0 , ı̂n rest

36
Având ı̂n vedere că că evenimentele {X = i}i∈{0,1,2} sunt disjuncte două câte două obţinem
că: 

 0 , dacă x < 0

P (X = 0) , dacă x ∈ [0, 1)
FX (x) = P (X ≤ x) =


 P (X = 0) + P (X = 1) , dacă x ∈ [1, 2)
P (X = 0) + P (X = 1) + P (X = 2) , dacă x ≥ 2

 

 0 , dacă x < 0 
 0 , dacă x < 0
1

, dacă x ∈ [0, 1)

 1
, dacă x ∈ [0, 1)
= 14 1 = 43 .


 4
+ 2
, dacă x ∈ [1, 2) 

 4
, dacă x ∈ [1, 2)
1 1 1
≥ 1 , dacă x ≥ 2

4
+ 2
+ 4
, dacă x 2

3.3 Independenţa variabilelor aleatoare discrete


Definiţie 3.3.1. Fie X, Y două variabile aleatoare discrete pe (Ω, F, P ) definite prin

X = (xi , P (X = xi ))i∈I , Y = (yj , P (Y = xj ))j∈J , I, J numărabile .

Spunem că X, Y sunt variabile independente dacă pentru orice i ∈ I şi j ∈ J avem

P ({X = xi } ∩ {Y = yj }) = P (X = xi )P (Y = yj ).

Problemă. Considerăm experimentul aruncării unui zar de şase ori şi notăm cu X variabila
aleatoare care numără pătratele perfecte obţinute după primele trei aruncări, respectiv Y vari-
abila aleatoare care numără pătratele perfecte obţinute după ultimele trei aruncări. Să se
calculeze probabilitatea de obţinere a două pătratele perfecte după cele şase aruncări, ştiind că
după primele trei aruncări s-a obţinut cu siguranţă cel puţin un pătrat perfect.
Soluţie. Notăm cu A evenimentul obţinerii a două valori prime şi remarcăm că

A = {{X = 1} ∩ {Y = 1}} ∪ {{X = 2} ∩ {Y = 0}}

şi că evenimentele {{X = i} ∩ {Y = 2 − i} | i ∈ {1, 2}} sunt disjuncte două câte două.
Totodată, din ipoteză observăm că X, Y sunt independente, ı̂ntrucât ele reprezintă rezultatul
unor auncări independente ale zarului. Prin urmare, avem

P (A) = P ({{X = 1} ∩ {Y = 1}} ∪ {{X = 2} ∩ {Y = 0}})


(p2)
= P ({X = 1} ∩ {Y = 1}) + P ({X = 2} ∩ {Y = 0})
X,Y indep
= P (X = 1)P (Y = 1) + P (X = 2)P (Y = 0) =
2 4 2 4 4 2 4 64
3 · ( )2 · 3 · ( )2 + 3 · ( )2 · ( )3 = ≈ 0.26.
6 6 6 6 6 6 6 243

Definiţia poate fi extinsă la mai multe variabile aleatoare astfel:

37
Definiţie 3.3.2. Fie (Xi )i∈I , I numărabilă, o familie de variabile aleatoare discrete definite
prin
Xk = (xk,ik , P (Xk = xk,ik ))ik ∈Ik , Ik numărabile , k ∈ I.
Spunem că (Xi )i∈I este o familie de variabile aleatoare independente dacă pentru orice
J ⊂ I finită, k ∈ J şi ik ∈ Ik avem
\ Y
P ( {Xk = xk,ik }) = P (Xk = xk,ik ).
k∈J k∈J

3.4 Operaţii cu variabile aleatoare discrete


Fie X, Y două variabile aleatoare discrete definite prin

X = (xi , P (X = xi ))i∈I , Y = (yj , P (Y = xj ))j∈J , I, J numărabile .

Suma variabilelor aleatoare discrete X, Y este variabila aleatoare discretă, notată X + Y ,


având repartiţia
X + Y = (xi + yj , P ({X = xi } ∩ {Y = yj }))(i,j)∈I×J .
În particular, variabila aleatoare discretă a + X are repartiţia

a + X = (a + xi , P (X = xi ))i∈I .

Remarcă. Funcţia de distribuţie asociată sumei a două variabile aleatoare discrete indepen-
dente X, Y este dată de convoluţia (discretă) a distribuţiilor celor două variabile. Folosind
independenţa variabilelor obţinem pentru z ∈ Z:
X X
P (Z = z) = P (X + Y = z) = P (X = k, Y = z − k) = P (X = k)P (Y = z − k).
k∈Z i

Reamintim faptul că dacă f, g : Z −→ R, atunci convoluţia discretă dintre f şi g (notată f ∗ g)
este definită prin: X
(f ∗ g)(z) = f (k)g(z − k).
k∈Z

Produsul variabilelor aleatoare discrete X, Y este variabila aleatoare discretă, notată


X · Y , având repartiţia

X · Y = (xi · yj , P ({X = xi } ∩ {Y = yj }))(i,j)∈I×J .

În particular, variabila aleatoare discretă a · X are repartiţia

a · X = (a · xi , P (X = xi ))i∈I ,

iar ridicarea la puterea n ∈ N∗ a variabilei aleatoare discrete X este variabila aleatoare


discretă, notată X n , având repartiţia

X n = (xni , P (X = xi ))i∈I .

38
Inversa variabilei aleatoare discrete X nenulă (xi 6= 0, pentru orice i ∈ I), este variabila
1
aleatoare discretă, notată , având repartiţia
X
1 1
= ( , P (X = xi ))i∈I .
X xi
Y
În particular, variabilă aleatoare discretă are repartiţia
X
Y yj
= ( , P ({X = xi } ∩ {Y = yj }))(i,j)∈I×J .
X xi
Remarcă. a) Mulţimea I × J este numărabilă şi ı̂ntrucât {{Y = yj } | j ∈ J} formează un
sistem complet de evenimente pentru Ω rezultă că:
X XX
P ({X = xi } ∩ {Y = yj }) = P ({X = xi } ∩ {Y = yj })
(i,j)∈I×J i∈I j∈J

X [ X [
= P( ({X = xi } ∩ {Y = yj })) = P ({X = xi } ∩ ( {Y = yj }))
i∈I j∈J i∈I j∈J
X
= P (X = xi ) = 1.
i∈I

b) Dacă X, Y sunt variabile aleatoare discrete independente atunci

P ({X = xi } ∩ {Y = yj }) = P (X = xi ) · P (Y = yj ) pentru orice (i, j) ∈ I × J.

c) Suma şi produsul de variabile aleatoare se pot generaliza la un număr finit de varabile
aleatoare discrete.

Problemă. Fie X, Y variabile aleatoare discrete independente, repartizate astfel:

−2 0 2 −1 0 1
! !
X: 1 2 1 , Y : 1 1 1 .
6 3 6 4 2 4
1
Considerăm variabilele aleatoare discrete Z := X 2 , U := X + Y , V := X · Y , W := .
(X + 1)2
Să se determine imaginea şi repartiţia variabilelor Z, U , V şi W .

Soluţie. Din ipoteză avem Im(X) = {−2, 0, 2}, Im(Y ) = {−1, 0, 1}. Prin urmare:

Im(Z) = {x2 | x ∈ Im(X)} = {0, 4},

Im(U ) = {x + y | x ∈ Im(X), y ∈ Im(Y )} = {−3, −2, −1, 0, 1, 2, 3},


Im(V ) = {x · y | x ∈ Im(X), y ∈ Im(Y )} = {−2, 0, 2},

39
1 1
Im(W ) = { 2
| x ∈ Im(X) = { , 1}.
(x + 1) 9

Repartiţia variabilei aleatoare Z:


2
P (Z = 0) = P (X = 0) = .
3
(p2) 1 1 1
P (Z = 4) = P ({X = −2} ∪ {X = 2}) = P (X = −2) + P (X = 2) = + = .
6 6 3
Prin urmare !
0 4
Z: 2 1 .
3 3

Repartiţia variabilei aleatoare U :


X,Y indep 1 1 1
P (U = −3) = P ({X = −2} ∩ {Y = −1}) = P (X = 2)P (Y = −1) = · = .
6 4 24

X,Y indep 1 1 1
P (U = −2) = P ({X = −2} ∩ {Y = 0}) = P (X = −2)P (Y = 0) = · = .
6 2 12

P (U = −1) = P ({{X = −2} ∩ {Y = 1}} ∪ {{X = 0} ∩ {Y = −1}})


(p2)
= P ({{X = −2} ∩ {Y = 1}}) + P ({{X = 0} ∩ {Y = −1}})
X,Y indep 1 1 2 1 5
= P (X = −2)P (Y = 1) + P (X = 0)P (Y = −1) = · + · = .
6 4 3 4 24
X,Y indep 2 1 1
P (U = 0) = P ({X = 0} ∩ {Y = 0}) = P (X = 0)P (Y = 0) = · = .
3 2 3

P (U = 1) = P ({{X = 0} ∩ {Y = 1}} ∪ {{X = 2} ∩ {Y = −1}})


(p2)
= P ({{X = 0} ∩ {Y = 1}}) + P ({{X = 2} ∩ {Y = −1}})
X,Y indep 2 1 1 1 1
= P (X = 0)P (Y = 1) + P (X = 2)P (Y = −1) = · + · = .
3 4 6 4 4

X,Y indep 1 1 1
P (U = 2) = P ({X = 2} ∩ {Y = 0}) = P (X = 2)P (Y = 0) = · = .
6 2 12

X,Y indep 1 1 1
P (U = 3) = P ({X = 2} ∩ {Y = 1}) = P (X = 2)P (Y = 1) = · = .
6 4 24
Prin urmare
−3 −2 −1 0
!
1 2 3
U: 1 1 5 1 1 1 1 .
24 12 24 3 4 12 24

40
Repartiţia variabilei aleatoare V :

P (V = −2) = P ({{X = −2} ∩ {Y = 1}} ∪ {{X = 2} ∩ {Y = −1}})


(p2)
= P ({{X = −2} ∩ {Y = 1}}) + P ({{X = 2} ∩ {Y = −1}})
X,Y indep 1 1 1 1 1
= P (X = −2)P (Y = 1) + P (X = 2)P (Y = −1) = · + · = .
6 4 6 4 12

P (V = 0) = P ({{X = −2} ∩ {Y = 0}} ∪ {{X = 0} ∩ {Y = −1}} ∪ {{X = 0} ∩ {Y = 0}}

∪{{X = 0} ∩ {Y = 2}} ∪ {{X = 2} ∩ {Y = 0}})


(p2)
= P ({{X = −2} ∩ {Y = 0}}) + P ({{X = 0} ∩ {Y = −1}}) + P ({{X = 0} ∩ {Y = 0}})
+P ({{X = 0} ∩ {Y = 2}}) + P ({{X = 2} ∩ {Y = 0}})
X,Y indep
= P (X = −2)P (Y = 0) + P (X = 0)P (Y = −1) + P (X = 0)P (Y = 0)
1 1 2 1 2 1 2 1 1 1 5
+P (X = 0)P (Y = 2) + P (X = 2)P (Y = 0) = · + · + · + · + · = .
6 2 3 4 3 2 3 4 6 2 6

P (V = 2) = P ({{X = −2} ∩ {Y = −1}} ∪ {{X = 2} ∩ {Y = 1}})


(p2)
= P ({{X = −2} ∩ {Y = −1}}) + P ({{X = 2} ∩ {Y = 1}})
X,Y indep 1 1 1 1 1
= P (X = −2)P (Y = −1) + P (X = 2)P (Y = 1) = · + · = .
6 4 6 4 12
Prin urmare
−2 0
!
2
V : 1 5 1 .
12 6 12

Repartiţia variabilei aleatoare W :


1 1
P (W = ) = P (X = 2) = .
9 6

(p2) 1 2 5
P (W = 1) = P ({X = −2} ∪ {X = 0}) = P (X = −2) + P (X = 0) = + = .
6 3 6
Prin urmare  
1
9 1
V : .
 
1 5
6 6

41
3.5 Caracteristici numerice ale variabilelor aleatoare discrete
Media unei variabile aleatoare discrete.

Definiţie 3.5.1. Fie X o variabilă aleatoare discretă repartizată X : (xi , pi )i∈I , unde
X pi =
P (X = xi ) pentru i ∈ I. Spunem că variabila aleatoare X are medie dacă seria |xi |pi
i∈I
este convergentă şi ı̂n acest caz numim media variabilei aleatoare X (şi notăm M [X], E[X]
sau m) numărul real X
M [X] = xi p i .
i∈I

Dacă seria nu este convergentă atunci spunem că variabila aleatoare X nu are medie.
În particular, dacă X este variabilă aleatoare simplă (card(I) < ∞, I = {1, . . . , n}, n ∈ N∗ )
care are medie atunci n
X
M [X] = xi p i .
i=1

Remarcă. Media variabilei aleatoare X se mai numeşte valoarea aşteptată sau aşteptarea lui X
ı̂ntrucât aproximează media aritmetică a valorilor luate de X, de aici şi justificarea denumirii
de medie. Să presupunem că repetăm experimentul asociat variabilei aleatoare X de n ∈ N∗
ori şi că am obţinut rezultatul xi de exact ni ori, i ∈ I. Astfel
n n
X X ni · xi
M [X] = xi p i = ,
i=1 i=1
n

adică M [X] reprezintă media aritmetică a valorilor lui X.

Propoziţia 3.5.2. (Proprietăţile mediei) Fie X, Y variabile aleatoare discrete. Următoarele


afirmaţii sunt adevărate:  
c
(i) M [X] = M [c] = c, unde X : , c ∈ R.
1
(ii) M [c + X] = c + M [X], M [c · X] = c · M [X], c ∈ R.
(iii) M [X + Y ] = M [X] + M [Y ].
(iv) M [XY ] = M [X]M [Y ], dacă X, Y independente.
(v) inf xi ≤ M [X] ≤ sup xi .
i∈I i∈I
(vi) (M [X])2 ≤ M [X 2 ].
(vii) (M [XY ])2 ≤ M [X 2 ]M [Y 2 ] (inegalitatea lui Schwartz).
Proprietăţile (iii) şi (iv) pot fi generalizate la sume, respectiv produse numărabile de variabile
aleatoare (independente ı̂n situaţia punctului (iv)).

Demonstraţie. (i) este X o consecinţă a definiţiei mediei.


(ii) Fie X : (xi , pi )i∈I , pi = 1, pi ≥ 0, i ∈ I. Atunci
i∈I

c + X : (c + xi , pi )i∈I , c · X : (c · xi , pi )i∈I .

42
Prin urmare,
X X X
M [c + X] = (c + xi )pi = c pi + xi pi = c + M [X].
i∈I i∈I i∈I
X X
M [c · X] = c · xi p i = c xi pi = c · M [X].
i∈I i∈I
X X
(iii), (iv) Fie X : (xi , pi )i∈I , pi = 1, pi ≥ 0, i ∈ I, Y : (yj , qj )j∈J , qj = 1, qj ≥ 0,
i∈I j∈J
j ∈ J. Atunci

X + Y : (xi + yj , rij )(i,j)∈I×J , X · Y : (xi · yj , rij )(i,j)∈I×J ,

unde rij = P ({X = xj } ∪ {Y = yj }), i ∈ I, j ∈ J.

Prin urmare,
XX X X X X
M [X + Y ] = (xi + yj )rij = xi ( rij ) + yj ( rij )
i∈I j∈J i∈I j∈J j∈J i∈I

X X
= xi p i + yj qj = M [X] + M [Y ].
i∈I j∈J

X,Y indep
XX XX X X
M [X · Y ] = (xi · yj )rij = (xi · yj )pi qj = ( xi p i ) · ( y j qj )
i∈I j∈J i∈I j∈J i∈I j∈J

= M [X] · M [Y ].
X X
(v) inf xi = (inf xi )pi ≤ M [X] ≤ (sup xi )pi = sup xi .
i∈I i∈I i∈I i∈I
i∈I i∈I
(v) Folosind notaţiile de la punctul (ii) pentru variabila aleatoare X considerăm variabila
aleatoare Y := (X + c)2 , c ∈ R.
Prin urmare, folosind (ii) şi (iii) avem

M [Y ] = M [(X + c)2 ] = M [X 2 + 2cX + c2 ] = M [X 2 ] + 2cM [X] + c2 .

Întrucât Y ia valori pozitive, avem că M [Y ] ≥ 0 pentru orice c ∈ R şi prin urmare obţinem că
M [X 2 ] + 2cM [X] + c2 ≥ 0 pentru orice c ∈ R, ceea ce este echivalent cu

(2M [X])2 − 4M [X 2 ] ≤ 0, adică (M [X])2 ≤ M [X 2 ].

(vii) Inegalitatea rezultă raţionând ca la punctul (vi), prin considerarea variabilei aleatoare
Z := (X + cY )2 , c ∈ R.
q.e.d.

43
Moment iniţial de ordin k a unei variabile aleatoare discrete, k ∈ N.
Definiţie 3.5.3. Fie X o variabilă aleatoare discretă repartizată X : (xi , pi )i∈I , unde pi =
P (X = xi ) pentru i ∈ IX
şi k ∈ N. Spunem că variabila aleatoare X are moment iniţial
de ordin k dacă seria |xi |k pi este convergentă şi ı̂n acest caz numim moment iniţial de
i∈I
ordin k a variabilei aleatoare X (şi notăm Mk [X], Ek [X] sau mk ) numărul real
X
Mk [X] = M [X k ] = xki pi .
i∈I

Dacă seria nu este convergentă atunci spunem că variabila aleatoare X nu are moment
iniţial de ordin k.
În particular, dacă X este variabilă aleatoare simplă (card(I) < ∞, I = {1, . . . , n}, n ∈ N∗ )
care are moment iniţial de ordin k atunci
n
X
Mk [X] = xki pi .
i=1

Moment centrat de ordin k a unei variabile aleatoare discrete, k ∈ N.


Definiţie 3.5.4. Fie X o variabilă aleatoare discretă care are medie, repartizată X : (xi , pi )i∈I ,
unde pi = P (X = xi ) pentru i ∈ I X
şi k ∈ N. Spunem că variabila aleatoare X are moment
centrat de ordin k dacă seria |xi − M [X]|k pi este convergentă şi ı̂n acest caz numim
i∈I
moment centrat de ordin k a variabilei aleatoare X (şi notăm µk [X]) numărul real
X
µk [X] = M [(X − M [X])k ] = (xi − M [X])k pi .
i∈I

Dacă seria nu este convergentă atunci spunem că variabila aleatoare X nu are moment
centrat de ordin k.
În particular, dacă X este variabilă aleatoare simplă (card(I) < ∞, I = {1, . . . , n}, n ∈ N∗ )
care are moment centrat de ordin k atunci
n
X
µk [X] = (xi − M [X])k pi .
i=1

În general, dacă X este o variabilă aleatoare discretă repartizată X : (xi , pi )i∈I , unde pi =
P (X = xi ) pentru i ∈ I şi g : R → R este o funcţie continuă pe R atunci g(X)X este o variabilă
aleatoare discretă. Atunci, variabila aleatoare g(X) are medie dacă seria |g(xi )|pi este
i∈I
convergentă şi ı̂n acest caz X
M [g(X)] = g(xi )pi .
i∈I

În particular, dacă g(x) = xk , atunci se obţine momentul iniţial de ordin k, iar dacă
g(x) = (x − M [X])k , atunci se obţine momentul centrat de ordin k.

44
Dispersia şi abaterea medie pătratică a unei variabile aleatoare discrete.

Definiţie 3.5.5. Fie X o variabilă aleatoare discretă repartizată X : (xi , pi )i∈I , unde pi =
P (X = xi ) pentru i ∈ I. Numim dispersia variabilei aleatoare X (şi notăm σ 2 [X] sau
D2 [X]) momentul centrat de ordin 2 a variabilei aleatoare X, adică numărul real
X
D2 [X] = M [(X − M [X])2 ] = (xi − M [X])2 pi .
i∈I
X
Dacă seria |xi − M [X]|2 pi nu este convergentă atunci spunem că variabila aleatoare X
i∈I
nu are dispersie.
În particular, dacă X este variabilă aleatoare simplă (card(I) < ∞, I = {1, . . . , n}, n ∈ N∗ )
care are dispersie atunci
X n
D2 [X] = (xi − M [X])2 pi .
i=1

Numim abaterea
p medie pătratică a variabilei aleatoare X (notăm σ[X]) radicalul dis-
2
persiei, adică D [X].

Remarcă. (i) Folosind Propoziţia 3.5.2 i) − iii) avem

D2 [X] = M [(X − M [X])2 ] = M [X 2 − 2XM [X] + (M [X])2 ]

= M [X 2 ] − 2(M [X])2 + (M [X])2 = M [X 2 ] − (M [X])2 .


(ii) Dispersia variabilei aleatoare X caracterizează ı̂mprăştierea valorilor luate de X, de aici
si justificarea denumirii de dispersie.

Propoziţia 3.5.6. (Proprietăţile dispersiei) Fie X, Y variabile aleatoare discrete. Următoarele


afirmaţii sunt adevărate:  
2 2 c
(i) D [X] = D [c] = 0, unde X : , c ∈ R.
1
Dacă X nu are o singură valoare posibilă atunci D2 [X] > 0.
(ii) D2 [c + X] = D2 [X], D2 [c · X] = c2 · D2 [X], c ∈ R.
(iii) D2 [X + Y ] = D2 [X] + D2 [Y ], dacă X, Y independente.

Demonstraţie. (i), (ii) şi (iii) rezultă folosind proprietăţile (i) − (vi) din Propoziţia 3.5.2
astfel
D2 [c] = M [(c − M [c])2 ] = M [(c − c)2 ] = 0.
D2 [c + X] = M [(c + x − M [c + x])2 ] = M [(c + X − c − M [X])2 ] = M [(X − M [X])2 ] = D2 [X].
D2 [c · X] = M [(c · X − M [c · X])2 ] = M [c2 · X 2 − 2cM [c · X] · X + (M [c · X])2 ]
= M [c2 · X 2 − 2c2 M [X] · X + c2 (M [X])2 ] = c2 M [X 2 ] − 2c2 (M [X])2 + c2 (M [X])2 ] =
= c2 (M [X 2 ] − M [X]2 ) = c2 D2 [X].
D2 [X + Y ] = M [(X + Y )2 ] − (M [X + Y ])2 = M [X 2 ] + M [Y 2 ] + 2M [XY ] − (M [X] + M [Y ])2

45
X,Y indep.
= M [X 2 ] + M [Y 2 ] + 2M [X]M [Y ] − (M [X])2 − (M [Y ])2 − 2M [X]M [Y ]
= D2 [X] + D2 [Y ].
q.e.d.

Covarianţa a două variabile aleatoare discrete.

Definiţie 3.5.7. Fie X, Y două variabile aleatoare discrete repartizate X : (xi , pi )i∈I , Y :
(yj , qj )j∈J , unde pi = P (X = xi ), qi = P (Y = yi ) pentru i ∈ I, j ∈ J. Numim covarianţa
variabilelor aleatoare X şi Y (şi notăm Cov[X, Y ]) numărul real
XX
Cov[X, Y ] = M [(X − M [X])(Y − M [Y ])] = (xi − M [X])(yj − M [Y ])rij ,
i∈I j∈J

unde ri,j = P (X = xiX = Yj ) pentru i ∈ I, j ∈ J.


,Y X
Dacă seria dublă |xi − M [X]| |yj − M [Y ]|rij nu este convergentă atunci spunem că
i∈I j∈J
variabilele aleatoare X şi Y nu admit covarianţă.

Remarcă 3.5.8. Următoarele afirmaţii sunt adevărate:


(i) Dacă X, Y sunt independente atunci Cov[X, Y ] = 0. Reciproca nu este adevărată.
(ii) Dacă X1 , . . . , Xn sunt variabile aleatoare discrete atunci
n
X n
X X
2
D [ Xk ] = D2 [Xk ] + Cov[Xi , XJ ]
k=1 k=1 1≤i,j≤n,i6=j

Justificarea afirmaţiilor rămân ca exerciţiu.

Coeficientul de corelaţie a două variabile aleatoare discrete.

Definiţie 3.5.9. Fie X, Y două variabile aleatoare discrete repartizate X : (xi , pi )i∈I , Y :
(yj , qj )j∈J , unde pi = P (X = xi ), qi = P (Y = yi ) pentru i ∈ I, j ∈ J. Numim coeficientul
de corelaţie al variabilelor aleatoare X şi Y (şi notăm ρ[X, Y ]) numărul real

Cov[X, Y ]
ρ[X, Y ] = .
σ[X]σ[Y ]

Remarcă. (i) Dacă X, Y sunt independente atunci ρ[X, Y]= 0. Reciproca


 nu este adevărată.
0 1 −1 1
Într-adevăr, considerăm variabilele aleatoare X : 1 1 şi Y : 1 1 . Atunci XY şi
2 2 2 2
X nu sunt idependente deşi ρ[XY, X] = 0.
(ii) |ρ[X, Y ]| ≤ 1 pentru orice X, Y variabile aleatoare. Dacă X = Y atunci ρ[X, Y ] = 1.

Exemple. 1) Considerăm variabila aleatoare Y repartizată


 
1 2... n ...
Y : 1 1 .
2 4
. . . 21n . . .

46
X 1
Y este o variabilă aleatoare discretă ı̂ntrucât = 1.
n≥1
2n
X n
Y are medie şi M [Y ] = n
= 4. (exerciţiu)
n≥1
2
X n
2
Y are dispersie şi D [Y ] = = 6. (exerciţiu)
n≥1
2n
2) Considerăm variabila aleatoare Z repartizată
 
1 2 ... n ...
Y : 1 1 1 .
2 6
... n(n+1)
...
X 1
Z este o variabilă aleatoare discretă ı̂ntrucât = 1.
n≥1
n(n + 1)
X 1
Z nu are medie ı̂ntrucât M [Z] = = ∞.
n≥1
n+1

3.6 Funcţia generatoare de momente


Definiţie 3.6.1. Fie X o variabilă aleatoare. Dacă există o vecinătate V a originii astfel ı̂ncât
pentru orice t ∈ V variabila aleatoare etX are medie (există h > 0 astfel ı̂ncât oricare ar fi
t ∈ (−h, h) avem că M [etX ] există), atunci numim funcţie generatoare de momente a
variabilei X aplicaţia t −→ GX (t) = M [etX ].
Dacă nu există o vecinătate a originii pentru care M [e·X ] există, atunci spunem că variabila
aleatoare X nu are funcţie generatoare de momente.
Dacă X este o variabilă aleatoare discretă repartizată X : (xi , pi )i∈I , unde pi = P (X = xi )
atunci funcţia generatoare de momente are forma:
X
GX (t) = M [etX ] = etxi pi .
i∈I

Propoziţia 3.6.2. Fie X o variabilă aleatoare discretă repartizată X : (xi , pi )i∈I , unde pi =
P (X = xi ) având funcţia generatoare de momente GX . Atunci GX (0) = 1 şi pentru orice
k ∈ N∗ avem
(k)
GX (0) = Mk [X] = M [X k ].
P
Demonstraţie. Prin calcul direct avem că, GX (0) = i∈I pi = 1. Fie h > 0 astfel ı̂ncât
M [etX ] există pe (t − h, t + h). Folosind dezvoltarea ı̂n serie Taylor a funcţiei exponenţiale şi
proprietăţile mediei obţinem că pentru t ∈ (t − h, t + h) avem:
X tn X n X tn
GX (t) = M [etX ] = M ( )= M [X n ].
n≥0
n! n≥0
n!

Întrucât seria este convergentă pe (t−h, t+h) aceasta este indefinit derivabilă termen cu termen
pe (t − h, t + h), iar derivatele acesteia sunt serii convergente pe (t − h, t + h). Mai mult,
(k)
X tn
GX (t) = M [X n+k ], pentru orice t ∈ (t − h, t + h).
n≥0
n!

47
(k)
Prin urmare, pentru orice k ∈ N∗ obţinem GX (0) = M [X k ]. q.e.d.

Remarcă. Dacă există k ∈ N astfel ı̂ncât variabila aleatoare X k nu are medie, atunci X nu are
funcţie generatoare de momente.

3.7 Principalele distribuţii discrete


a) Distribuţia Bernoulli - Bernoulli(p), p ∈ (0, 1)
Variabila aleatoare X este distribuită Bernoulli de parametru p dacă
 
0 1
X: .
1−p p

Figura 11: Bernoulli(0.7) pe intervalul [0,10]

Funcţiile de probabilitate şi repartiţie asociate variabilei aleatoare Bernoulli


 
1 − p
 , dacă x = 0 0
 , dacă x < 0
fX (x) = p , dacă x = 1 , FX (x) = 1 − p , dacă x ∈ [0, 1) .
 
0 , ı̂n rest 1 , dacă x ≥ 1
 

Variabila aleatoare Bernoulli modelează realizarea cu succes sau insucces a unui eveniment
ı̂n cadrul unui experiment având două rezultate posibile, a căror probabilitate de producere
este p, respectiv 1 − p. Spre exemplu, considerăm experimentul aruncării unei monezi pentru
care probabilitatea apariţiei feţei ”ban” este p ∈ (0, 1) şi evenimentul apariţiei feţei ”ban”.

Media şi dispersia variabilei aleatoare Bernoulli

M [X] = 0 · (1 − p) + 1 · p = p.

D2 [X] = (−p)2 · (1 − p) + (1 − p)2 · p = p(1 − p).


Funcţia generatoare de momente a variabilei aleatoare Bernoulli

48
Pentru t ∈ R,

GX (t) = et·0 P (X = 0) + et·1 P (X = 1) = pet + 1 − p.

b) Distribuţia uniformă - U (n), n ∈ N∗


Variabila aleatoare X este distribuită uniform de parametru n dacă
 
1 2 ... n
X: 1 1 .
n n
. . . n1

Figura 12: U(10) pe intervalul [0,25]

Funcţiile de probabilitate şi repartiţie asociate variabilei aleatoare uniforme



0 , dacă x < 1,
(
1

, dacă x ∈ {1, 2, . . . , n}
fX (x) = n , FX (x) = ni , dacă x ∈ [i, i + 1), i < n .
0 , ı̂n rest 
1 , dacă x ≥ n

Variabila aleatoare Bernoulli modelează realizarea cu succes a unui eveniment ı̂n cadrul unui
experiment având n rezultate posibile echiprobabile. Spre exemplu, considerăm experimentul
aruncării unui zar cu n feţe pentru care probabilitatea apariţiei unei feţe este n1 .

Media şi dispersia variabilei aleatoare uniforme


n
X k n+1
M [X] = = .
k=1
n 2
n
2
X n+1 21 n2 − 1
D [X] = (k − ) = .
k=1
2 n 12
Funcţia generatoare de momente a variabilei aleatoare uniforme

49
Pentru t ∈ R,
n n
(
ent −1
X 1 X tk n(et −1)
, dacă t 6= 0,
GX (t) = etk P (X = k) = e = .
k=1
n k=1
1 , dacă t = 0

c) Distribuţia Poisson (legea evenimentelor rare) - P oisson(λ), λ > 0


Variabila aleatoare X este distribuită Poisson de parametru λ dacă
 
0 1 ... n ...
X : −λ λ0 −λ λ1 n .
e 0! e 1! . . . e−λ λn! . . . n∈N

Figura 13: Poisson(10) pe intervalul [0,30]

Variabila aleatoare Poisson modelează numărul de evenimente care se realizează ı̂ntr-un


interval fixat raportat la o unitate de măsură dată (timp, spaţiu, arie, volum etc.) ı̂n condiţiile
ı̂n care evenimentele apar cu o rată medie λ şi sunt independente de apariţiile anterioare.
Spre exemplu, considerăm experimentul aferent gestionării unei căsuţe poştale electronice şi
evenimentul recepţionării unui email de la un anume destinatar ı̂ntr-un interval de timp fixat
(spre exemplu, ı̂ntr-o lună), ştiind că ı̂n medie recepţionăm ı̂ntr-o zi aproximativ λ email-uri
de la acest destinatar.
X λn
Folosind dezvoltarea ı̂n serie Taylor eλ = , remarcăm că variabila aleatoare este bine
n≥0
n!
n
X λ
definită: e−λ = 1.
n≥0
n!
Funcţiile de probabilitate şi repartiţie asociate variabilei aleatoare Poisson
( k
e−λ λk! , dacă x = k, k ∈ N
fX (x) = ,
0 , ı̂n rest

0
 , dacă x < 0,
i
FX (x) = X −λ λk .
 e , dacă x ∈ [i, i + 1), i ∈ N

k=0
k!

50
Media şi dispersia variabilei aleatoare Poisson
X λn X λn−1
M [X] = ne−λ = λe−λ = λ.
n≥0
n! n≥1
(n − 1)!
Folosind acelaşi tip de raţionament avem că:
n X λn−2
−λ λ
X
2 2 −λ
M [X ] − M [X] = n(n − 1)e =λ e = λ2 .
n≥0
n! n≥2
(n − 2)!

Prin urmare
D2 [X] = M [X 2 ] − M [X]2 = λ2 + λ − λ2 = λ.
Funcţia generatoare de momente a variabilei aleatoare Poisson
Pentru t ∈ R,
X X λk X (et λ)k t
GX (t) = etk P (X = k) = e−λ etk = e−λ = eλ(e −1) .
k≥0 k≥0
k! k≥0
k!

d) Distribuţia binomială - Bin(n, p), n ∈ N şi p ∈ (0, 1)


Variabila aleatoare X este distribuită binomial de parametrii n şi p dacă
 
0 1 ... k ... n
X: , unde q = 1 − p.
Cn0 q n Cn1 pq n−1 . . . Cnk pk q n−k . . . Cnn pn

Figura 14: Bin(40, 0.7) pe intervalul [0,36]

Folosind formula binomului lui Newton, remarcăm că variabila aleatoare este bine definită:
n
X
Cnk pk q n−k = (q + p)n = 1.
k=0
Funcţiile de probabilitate şi repartiţie asociate variabilei aleatoare binomiale
(
Cnk pk q n−k , dacă x = k, k ∈ {0, 1, . . . , n}
fX (x) = ,
0 , ı̂n rest

51



 0 , dacă x < 0,

X i
FX (x) = Cnk pk q n−k , dacă x ∈ [i, i + 1), .


 k=0

1 , dacă x ≥ n
Variabila aleatoare binomială modelează realizarea cu succes a unui eveniment de k-ori
(k ∈ N, k ≤ n) ı̂n cadrul unui experiment repetat de n-ori, eveniment a cărei probabilitate de
producere este p la fiecare repetare a experimentului. Spre exemplu, considerăm experimentul
aruncării unei monezi de n-ori şi evenimentul apariţiei feţei ”ban” de exact k-ori, probabili-
tatea apariţiei feţei ”ban” fiiind p ∈ (0, 1). Un alt exemplu clasic ı̂l reprezintă experimentul
controlului calităţii, variabila aleatoare binomială modelând numărul de piese defecte.
Folosind independenţa celor n ı̂ncercări, probabilitatea ca evenimentul să se realizeze cu
succes de k-ori, altfel spus să nu se realizeze de (n − k)-ori, este Cnk pk q n−k , ı̂ntrucât pk este
probabilitatea ca evenimentul să se realizeze cu succes ı̂n k dintre ı̂ncerări , q n−k este proba-
bilitatea ca evenimentul să nu se realizeze ı̂n celelalte n − k ı̂ncercări rămase, iar numărul de
moduri ı̂n care alegem ı̂ncercările ı̂n care s-a realizat cu succes evenimentul este Cnk .

Media şi dispersia variabilei aleatoare binomiale


Derivând după p formula binomului lui Newton (q + p)n şi ı̂nmulţind cu p obţinem
n
X
np(q + p)n−1 = kCnk pk q n−k .
k=0

Derivând după p formula anterioară si ı̂nmulţind cu p rezultă că


n
X
2 n−2 n−1
n(n − 1)p (q + p) + np(q + p) = k 2 Cnk pk q n−k .
k=0

Folosind relaţiile de mai sus şi faptul că p + q = 1 avem


n
X
M [X] = kCnk pk q n−k = np.
k=0
n
X
D2 [X] = (k − np)2 Cnk pk q n−k = npq
k=1
Funcţia generatoare de momente a variabilei aleatoare binomiale
Pentru t ∈ R,
n
X n
X n
X
tk tk
GX (t) = e P (X = k) = e Cnk pk q n−k = Cnk (et p)k q n−k = (pet + q)n .
k=0 k=0 k=0

e) Distribuţia geometrică - Geom(p), p ∈ (0, 1)


Variabila aleatoare X este distribuită geometric de parametru p dacă
 
1 2 ... n ...
X: , unde q = 1 − p.
p pq . . . pq n−1 . . . n∈N∗

52
Figura 15: Geom(0.4) pe intervalul [0,15]
X p
Întrucât pq n−1 = = 1 rezultă că variabila aleatoare este bine definită.
n≥1
1−q
Funcţiile de probabilitate şi repartiţie asociate variabilei aleatoare geometrice
(
pq k−1 , dacă x = k, k ∈ N∗
fX (x) = ,
0 , ı̂n rest

0
 , dacă x < 1,
i
FX (x) = X k−1 .

 pq , dacă x ∈ [i, i + 1), i ∈ N∗
k=0

Variabila aleatoare geometrică modelează numărul de ı̂ncercări efectuate până la prima


realizare a evenimentului (primul ”succes”), prin repetarea unui experiment de tip Bernoulli
având un acelaşi parametru p. Spre exemplu, considerăm experimentul aruncării cu zarul şi
evenimentul obţinerii uneia dintre feţe. X modelează numărul de aruncări cu zarul până la
prima apariţie a feţei prestabilite.
Folosind independenţa ı̂ncercărilor, probabilitatea ca evenimentul să se realizeze cu succes
la a n-a aruncare, altfel spus să nu se realizeze la primele (n − 1) aruncări, este pq n−1 .

Media şi dispersia


X variabilei aleatoare geometrice
Derivând seria q n după q obţinem
n≥0

X 1 1 1
M [X] = p nq n−1 = p = p = .
n≥1
(1 − q)2 p2 p
X
Folosind acelaşi tip de raţionament, prin derivarea seriei q n de două ori după q obţinem
n≥0

X 1 p + 2q 1 1−p
D2 [X] = M [X 2 ] − M [X]2 = p n2 q n−1 − 2
=p 3 − 2 = .
n≥0
p p p p

53
Funcţia generatoare de momente a variabilei aleatoare geometrice
Pentru t ∈ R \ {ln 1q },

X X X pet
GX (t) = etk P (X = k) = et et(k−1) pq k−1 = et p(et q)k−1 = .
k≥1 k≥1 k≥1
1 − qet

f ) Distribuţia binomială negativă - N B(k, p), k ∈ N∗ şi p ∈ (0, 1)


Variabila aleatoare X este distribuită binomial negativ de parametrii k şi p dacă
 
k k + 1 ... k+i ...
X: , unde q = 1 − p.
pk Ckk−1 qpk . . . Ck+i−1
k−1
q i pk . . .

Figura 16: NB(2,0.3) pe intervalul [0,25]

Folosind dezvoltarea ı̂n serie a binomului cu putere negativă


X
(1 − x)−(n+1) = n
Ck+n xk , n ∈ N∗ , |x| < 1.
k≥0

obţinem că variabila aleatoare X este bine defintă ı̂ntrucât


X X
k−1
Ck+i−1 q i pk = pk k−1
Ck+i−1 q i = pk (1 − q)−(k−1+1) = pk (1 − q)−k = 1.
i≥0 i≥0

Funcţiile de probabilitate şi repartiţie asociate variabilei aleatoare geometrice negative


(
k−1
Ck+i−1 q i pk , dacă x = k + i, i ∈ N
fX (x) = ,
0 , ı̂n rest

0
 , dacă x < k,
i
FX (x) = X k−1 r k .

 Ck+r−1 q p , dacă x ∈ [k + i, k + i + 1), i ∈ N∗
r=0

54
Variabila binomială negativă de parametrii p şi k modelează numărul de ı̂ncercări realizate
ı̂ntr-un şir de experimente Bernoulii (de parametru p) până la obţinerea a k ∈ N∗ succese.
Observăm că ı̂n cazul variabilei aleatoare binomiale negative, numărul de succese k este fixat
iar numărul de ı̂ncercări este aleator (spre deosebire de variabila aleatoare binomială unde
numărul de ı̂ncercări este fixat, iar numărul de succese era aleator).
Spre exemplu, considerăm experimentul aruncării cu moneda şi X variabila aleatoare care
numără câte aruncări am realizat până am obţinut faţa ”stemă” de k ori. Remarcăm că pro-
babilitatea de a fi obţinut faţa ”stemă” de k -ori ı̂n situaţia ı̂n care s-a aruncat cu moneda
k−1
de (k + i)-ori, i ∈ N, este Ck+i−1 (1 − p)i pk , ı̂ntrucât cu probabilitate p obţinem de k-ori faţa
”stemă”, iar cu probabilitate 1 − p obţinem de i-ori faţa ”ban” (combinările fiind date de or-
dinea ı̂n care am obţinut faţa dorită).

Media şi dispersia variabilei aleatoare binomiale negative


Folosind din nou dezvoltarea ı̂n serie a binomului cu putere negativă obţinem:
X
k−1
X k
M [X] = pk (k + i)Ck+i−1 q i = kpk k
Ck+i q i = kpk (1 − q)k+1 = .
i≥0 i≥0
p

X X
k−1 k+1
M [X 2 + X] = pk (k + i)(k + i + 1)Ck+i−1 q i = k(k + 1)pk Ck+i+1 qi
i≥0 i≥0

k(k + 1)
= k(k + 1)pk (1 − q)−(k+1+1) = .
p2
Prin urmare,

k(k + 1) k(k + 1) k k 2 kq
D2 [X] = M [X 2 ] − M [X]2 = − M [X] − M [X 2
] = − − = .
p2 p2 p p2 p2
Funcţia generatoare de momente a variabilei aleatoare binomială negativă
Pentru t < ln 1q ,

X X
k−1
X
k−1 pet k
GX (t) = etk P (X = k) = et(k+i) Ck+i−1 q i pk = (pet )k Ck+i−1 (qet )i = ( ) .
k≥1 i≥0 i≥0
1 − qet

g) Distribuţia Hipergeometrică - HGeom(n, K, N ), n, K, N ∈ N, n, K ≤ N


Variabila aleatoare X este distribuită hipergeometric de parametrii n, M, N dacă
!
0 1 ... i ... n
X : CK0 CNn −K CK1 CNn−1
−K
i C n−i
CK N −K
n C0
CK N −K
.
C n C n . . . C n . . . Cn
N N N N n∈N

55
Figura 17: HGeom(20,50,100) pe intervalul [0,32]
r
X
r k r−k
Utilizând identitatea Cm+n = Cm Cn pentru m, n, r ∈ N, obţinem că variabila aleatoare
k=0
X este bine definită ı̂ntrucât
n n
X i
CK CNn−i
−K 1 X i n−i
= n C C = 1.
i=0
CNn CN i=0 K N −K

Formula utilizată se demostrează prin egalarea coeficientului termenului xr obţinut pe de o parte


m+n
X
m+n r
din dezvoltarea (1 + x) = Cm+n xr , respectiv pe de altă parte din produsul dezvoltărilor
r=0
m+n
X Xr
(1 + x)m (1 + x)n = ( k r−k r
Cm Cn )x .
r=0 k=0
Funcţiile de probabilitate şi repartiţie asociate variabilei aleatoare hipergeometrice
( C r C n−r
K N −K
CNn , dacă x = r, r ∈ N
fX (x) = ,
0 , ı̂n rest

0
 , dacă x < 0,
i
FX (x) = X CKr
CNn−r
−K .
 , dacă x ∈ [i, i + 1), i ∈ N
 Cn
r=0 N

Variabila aleatoare geometrică modelează realizarea a K succese din n ı̂ncercări, fără ı̂nlocuire,
dintr-o familie finită de volum N care conţine exact K succese (a nu se confunda cu distribuţia
binomială care descrie acelaşi tip de experiment ı̂nsă cu ı̂nlocuire).
Spre exemplu, considerăm experimentul extragerii repetate, fără ı̂nlocuire, dintr-o cutie ce
conţine N obiecte, printre care K sunt defecte. Considerăm X variabila aleatoare care numără
cantitatea de obiecte defecte obţinute ı̂n n extrageri. În acest caz, P (X = i) este probabilitatea
extragerii a i piese defecte din cele K, respectiv a n − i piese care nu sunt defecte din cele
N − K. Întrucât spaţiul de probabilitate are un număr finit de cazuri egal probabile, folosind
i C n−i
CK N −K
definiţia probabilităţii obţinem că P (X = i) = n
CN
, adică X este o variabilă aleatoare

56
hipergeometrică.

Media şi dispersia variabilei aleatoare hipergeometrice


Folosind din nou identitatea de mai sus obţinem:
n n
1 X i n−i 1 X i−1 CNn−1
−1 K
M [X] = n iCK CN −K = n KCK−1 CNn−i
−K = K n
=n .
CN i=0 CN i=0 CN N

n n
1 X n−i 1 X i−2
M [X(X − 1)] = n i
i(i − 1)CK CN −K = n K(K − 1)CK−2 CNn−i
−K
CN i=0 CN i=0

CNn−2 KK −1
= K(K − 1) n−2 = n(n − 1) .
CN N N −1
Prin urmare,
KK −1 K K n−1
D2 [X] = M [X 2 ] − M [X]2 = n(n − 1) + M [X] − M [X]2 = n (1 − )(1 − ).
N N −1 N N N −1

3.8 Probleme propuse


Problema 1. Orice funcţie F : R → R având proprietăţile (i), (ii), (iii) din Propoziţia 3.1.5
este funcţia de repartiţie a unei variabile aleatoare, spaţiu de probabilitare fiind unul anume
ales.
Indicaţie. Se consideră Ω = (0, 1), F = B((0, 1)) = σ-algebra Borel pe (0, 1)(= σ-algebra intervalelor
deschise din (0, 1)), P (A) = suma lungimii intervalelor care reunite dau A, A ∈ F (măsura Lebesgue
pe (0, 1)). Se construieşte variabila aleatoare X : Ω → R, X(ω) = sup{t ∈ R| F (t) < ω}, ω ∈ Ω şi se
arată că F = FX . Se folosesşte faptul că pentru orice x avem sup{ω ∈ Ω| X(ω) ≤ x} = {sup{ω ∈
Ω| ω ≤ F (x)}.

Problema 2. Fie X este o variabilă aleatoare având funcţia de reapartiţie FX şi α, β ∈ R,


α < β. Arătaţi că:
a) P (α ≤ X < β) = FX (β) − FX (α).
b) P (x ≤ X ≤ y) = FX (β) − FX (α) + P (X = β) = lim FX (β) − FX (x).
x&β
c) P (α < X < β) = FX (β) − FX (α) − P (X = α) = FX (β) − lim FX (α).
x%α
d) P (α < X ≤ β) = FX (β) − FX (α) − P (X = α) + P (X = β) = lim FX (β) − lim FX (α).
x&β x%α

Problema 3. Fie X o variabilă aleatoare astfel ı̂ncât Im(X) = N∗ şi repartiţia


!
1 2 ... n n + 1 ...
X: 1 1 1 1 , n ∈ N∗ .
... n . . .
3 9 3 3n+1
Determinaţi funcţia de repartiţie a variabilei aleatoare X, construiţi graficul acesteia şi
calculaţi P (3 < X ≤ 8), respectiv P (X > 9).

57
Problema 4. Aruncăm două zaruri corecte şi rezultatele fiecărui zar ı̂n parte definesc vari-
abilele aleatoare discrete X, respectiv Y . Considerăm variabila Z := X · Y Calculaţi imaginea
şi funcţiile de repartiţie ale variabilelor aleatoare X şi Y , precum şi P ({X = 1} ∩ {Y = 5}),
P (X < 4 | Y = 2), P (X = 3 | Z = 6), P (Z = 8 | X = 2).

Problema 5. (Lipsa de memorie a variabilei geometrice) Fie X o variabilă aleatoare


discretă care ia valori naturale nenule. Arătaţi că X este o variabiă aleatoare geometrică dacă
şi numai dacă pentru orice n, k ∈ N∗ avem

P (X = n + k | X > n) = P (X = k).

Problema 6. Considerăm experimentul aruncării simultane a trei monede. Determinaţi pro-


babilitatea obţinerii a două feţe ”steme”, respectiv cel puţin a unei feţe steme.

Problema 7. Dacă X ∼ B(n, p) atunci să se arate că

1 1 − (1 − p)n+1
M[ ]= .
X +1 (n + 1)p

Problema 8. Dacă X ∼ Geom(p) atunci să se arate că


1 p
M[ ] = .
2X p+1

Problema 9. Fie X ∼ P oisson(λ). Aflaţi valoarea lui λ pentru care probabilitatea P (X = k),
k ≥ 0 este maximă.

Problema 10. Fie X numărul de email-urilor pe care un utilizator le recepţionează ı̂n căsuţa
de poştă personală ı̂n decurs de o oră. Dacă X ∼ P oisson(5), care este probabilitatea ca ı̂n
următorul sfert de oră utilizatorul să primească cel mult 3 mail-uri?

Problema 11. Considerăm variabilele aleatoare X, Y, Z pe (Ω, F, P ) independente şi identic


repartizate pe {−n, −n − 1, . . . , −1, 0, 0, . . . , n} şi variabilele aletoare α, β, γ pe (Ω, F, P ) astfel
ı̂ncât valorile trinomului αx2 +βx+γ ı̂n 1, 2, 3 să fie egale cu X, Y, Z. Determinaţi P (α, β, γ ∈ Z).
n2 + (n + 1)2
Răspuns. P (α, β, γ ∈ Z) = .
(2n + 1)2

3.9 Simulări cu Mathematica


Problema 1. Scrieţi rutinele corespunzătoare graficelor realizate ı̂n secţiunea 3.7.

a) Distribuţia Bernoulli(0.7) pe intervalul [0, 10]


DiscretePlot[ Evaluate@Table[PDF[BernoulliDistribution[p], x],
{p, {0.7}}], {x, 0, 10}, PlotRange -> All, PlotMarkers -> Automatic]

b) Distribuţia Uniformă(10) pe intervalul [0, 25]

58
DiscretePlot[ Evaluate@Table[ PDF[DiscreteUniformDistribution[{1, b}],
k], {b, {10}}], {k, 25}, PlotRange -> All, PlotMarkers -> Automatic]

c) Distribuţia Poisson(10) pe intervalul [0, 30]


DiscretePlot[ Evaluate@Table[ PDF[PoissonDistribution[λ], k],
{λ, {10}}], {k, 0, 30}, PlotRange -> All, PlotMarkers -> Automatic]

d) Distribuţia Binomială(40,0.7) pe intervalul [0, 36]


DiscretePlot[ Evaluate@Table[PDF[BinomialDistribution[40, p], k],
{p, {0.7}}], {k, 36}, PlotRange -> All, PlotMarkers -> Automatic]

e) Distribuţia Geometrică(0.4) pe intervalul [0, 15]


DiscretePlot[ Evaluate@Table[PDF[GeometricDistribution[p], k],
{p, {0.4}}], {k, 15}, PlotMarkers -> Automatic, PlotRange -> All]

f) Distribuţia Binomială Negativă(2,0.3) pe intervalul [0, 25]


DiscretePlot[ Evaluate@Table[ PDF[NegativeBinomialDistribution[2, p],
k], {p, {0.3}}], {k, 25}, PlotMarkers -> Automatic]

g) Distribuţia Hipergeometrică(20,50,100) pe intervalul [0, 32]


DiscretePlot[ Evaluate@Table[ PDF[HypergeometricDistribution [n, 50,
100], k], {n, {20}}], {k, 0, 32}, PlotRange -> All, PlotMarkers ->
Automatic]

Problema 2. Erorile de tehnoredactare la scrierea unei cărţi apar aleator după o lege de tip
Poisson(λ). La un număr de 250 de pagini au fost identificate 150 de erori. Aflaţi distribuţia
erorilor pe pagini, ştiind că aceasta este dată de o lege tip Poisson(nλ), unde n este numărul
de pagini. Aflaţi probabilitatea ca pe o pagină să nu existe o nicio eroare, respectiv să existe
cel mult o eroare sau cel puţin o eroare.

Răspuns.
Clear[λ]
Clear[p]
Clear[e]
Mean[PoissonDistribution[λ]] == 150/250
NSolve[%, λ]
distributiaerorilorpepagini[p ] :=
Evaluate[PoissonDistribution[λ p] /. First[%]]
Probability[e == 0, e ≈ distributiaerorilorpepagini[1]]
0.548812
Probability[e < 2, e ≈ distributiaerorilorpepagini[1]]
0.878099
Probability[e ≥ 1, e ≈ distributiaerorilorpepagini[1]]
0.451188

59
Problema 3. Considerăm experimentul aruncării unei monezi şi definim o aruncare favorabilă
drept o aruncare ı̂n care am obţinut faţa stemă. Presupunem că modelăm numărul de aruncări
ı̂n care s-a obţinut faţa stemă prin distribuţia binomială.
(i) Reprezentaţi distribuţia obţinerii unor aruncări favorabile ı̂n 100 de aruncări.
(ii) Calculaţi probabilitatea de a obţine ı̂ntre 55 şi 60 de astfel de cazuri favorabile dintr-un
total de 100.
(iii) Refaceţi calculele anterioare pentru situaţia ı̂n care moneda este una măsluită iar o
situaţie favorabilă apare cu probabilitare de 0.6.

Răspuns.
(i) stema[n ] := BinomialDistribution[n, 1/2]
DiscretePlot[PDF[stema[100], k], {k, 0, 100}, PlotRange -> All]

Figura 18: Distribuţia aruncărilor favorabile - moneda corectă

(ii) Probability[55 <= x <= 60, x ≈ stema[100]] // N


0.166501

(iii) stema2[n ] := BinomialDistribution[n, 0.6]


DiscretePlot[PDF[stema2[100], k], {k, 0, 100}, PlotRange -> All]

60
Figura 19: Distribuţia aruncărilor favorabile

Probability[55 <= x <= 60, x ≈ stema2[100]] // N


0.406834

Problema 4. O urnă conţine k bile albe şi 1 bilă albastră. Doi jucători extrag bine din
urnă, fără ı̂ntoarcere, până când bila albastră este extrasă. Jucătorul care extrage bila albastră
câştigă. Determinaţi probabilitatea de a câştiga pentru jucătorul care extrage bila albastră,
presupunând că primul jucător câştigă la a 2n + 1 extragere, iar probabilitatea ca ı̂n cele 2n
extrageri anterioare să se fi extras bile albe urmează o distribuţie hipergeoemtrică.

Răspuns.
nonAlbastra = Probability[bila == 0, bila ≈ Hypergeometric
Distribution[2 n, 1, k + 1]]
prAlbastra = Boole[2 n < k + 1]/(k + 1 - 2 n);
primulcastig = Sum[nonAlbastra*prAlbastra, {n, 0, Infinity}] //
FullSimplify

Dacă numărul de bile albe este impar atunci jucătorii au şanse egale de câştig:
Refine[primulcastig, Mod[k, 2] == 1 && k > 0] // Apart
1
2
Dacă numărul de bile albe este par, atunci unul dintre jucători este avantajat:
Refine[primulcastig, Mod[k, 2] == 1 && k > 0] // Apart
1 1
+
2 2(1 + k)

61
Problema 5. Să se arate că distribuţia binomială negativă BN (k, p) converge distribuţia nor-
mală când k → ∞ .

Răspuns.
{m, σ} = {Mean[NegativeBinomialDistribution[k, p]],
StandardDeviation[NegativeBinomialDistribution[k,
p p]]}
k(1 − p) k(1 − p)
{ , }
p p
Block[p = 1/3,
Table[Show[DiscretePlot[PDF[NegativeBinomialDistribution[k, p], n],
n, Ceiling[m - 2σ], Floor[m+ 2 σ], PlotRange -> m - 3 σ, m + 2σ, All],
Plot[PDF[NormalDistribution[m, σ], x], x, m- 2 σ, m + 2 σ],
Ticks -> m - 2 σ, HoldForm[m - 2 σ], m, HoldForm[m], m + 2 σ,
HoldForm[m + 2 σ], Automatic, PlotLabel -> k], {k, {5, 15, 25, 50}}]]

1
Figura 20: BN(5, )
3

1
Figura 21: BN(15, )
3

62
1
Figura 22: BN(25, )
3

1
Figura 23: BN(50, )
3

63
4 Variabile aleatoare continue
4.1 Definiţie, funcţia de distribuţie şi densitatea asociată
Prin intermediul variabilelor aleatoare continue modelăm situaţiile ı̂n care ı̂n cadrul unui expe-
riment ne interesează să măsurăm anumite cantităţi de tipul: timpul rămas până la următorul
cutremur, greutatea unei persoane, lungimea unui drum etc.
Reamintim faptul că ı̂n cazul variabilelor aleatoare discrete X = (xi , pi )i∈I , unde Im(X)
este o mulţime finită sau infinit numărabilă, suntem interesaţi de:
- distribuţia lui X şi funcţia de probabilitate asociată, adică valorile P (X = x);
- funcţia de repartiţie, adică valorile P (X ≤ x), aceasta fiind discontinuă ı̂n punctele ı̂n care
funcţia are salturi.
Aşa cum se va vedea ı̂n continuare, ı̂n situaţia variabilelor aleatoare continue, probabilitatea
ca X să ia o valoare x este ı̂ntotdeauna nulă, adică P (X = x) = 0. Prin urmare, ı̂n contrast
cu situaţia cazului discret, ı̂n cazul continuu nu ne va interesa să determinăm P (X = x), ı̂n
schimb devenind de interes să evaluăm probabilitatea ca X să ia valori ı̂ntr-un interval fixat,
adică P (x ∈ I).

Exemplul 1. Considerăm experimentul recepţionării de email-uri la nivelul unei căsuţe de


poştă electronică şi variabila aleatoare X care numără intervalul de timp până la recepţionarea
următorului email. În acest caz se observă că Im(X) = (0, ∞), adică este o mulţime infinită
nenumărabilă, sens ı̂n care acest exemplul nu se ı̂ncadrează ı̂n cazul discret.

Reamintim faptul că pentru o variabilă aleatoare X, funcţia sa de repartiţie

FX : R −→ R definită prin: FX (x) = P (X ≤ x), x ∈ R,

este continuă la dreapta pe R şi cu limită la stânga ı̂n orice punct.

În cele ce urmează considerăm spaţiul de probabiliate (Ω, F, P ).

Definiţie 4.1.1. Spunem că variabilă aleatoare X este variabilă aleatoare continuă dacă
funcţia sa de repartiţie FX : R → R este o funcţie continuă pe R.

Remarcă. Definiţia variabilei aleatoare continue este una naturală dacă ne reamintim cazul
discret, unde funcţia de repartiţie a unei variabile aleatoare discrete X = (xi , pi )i∈I este o
funcţie ı̂n scară, discontinuă ı̂n fiecare punct xi .

Definiţie 4.1.2. Variabila aleatoare continuă X admite densitate de probabilitate dacă există
o funcţia fX : R → [0, ∞) integrabilă astfel ı̂ncât
Z x
(4.1) FX (x) = fX (t)dt, x ∈ R.
−∞

Funcţia fX se numeşte densitatea de probabilitate a variabilei aleatoare continue X.

64
Propoziţia
Z 4.1.3. Următoarele afirmaţii sunt adevărate:
a) fX (t)dt = 1;
R
b) Dacă fX este continuă pe D ⊂ R, atunci FX derivabilă pe D şi

FX0 (x) = fX (x), pentru orice x ∈ D.


Z
Demonstraţie. a) fX (t)dt = P (−∞ < X < ∞) = 1;
R
b) Presupunem că funcţia fX este continuă pe D ⊂ R. Atunci FX este derivabilă pe D şi
derivând relaţia 4.1.2 obţinem că
Z x
0
FX (x) = ( fX (t)dt)0 = fX (x), x ∈ D.
−∞

q.e.d.

Remarcă. (i) Relaţia 4.1.2 evidenţiază faptul că funcţia de repartiţie este determinată dacă se
cunoaşte densitatea. Folosind Propoziţia 4.1.3 b), rezultă că şi reciproca este valabilă, mai pre-
cis, ı̂n condiţiile ı̂n care se cunoaşte că densitatea este o funcţie continuă pe R cu excepţia unui
număr finit de puncte de discontinuitate de prima speţă, atunci aceasta poate fi determinată
din funcţia de repartiţie astfel: FX0 = fX pe domeniul de continuitate a lui fX .
(ii) O funcţie f : R → R reprezintă densitatea unei variabile aleatoare continue X dacă şi
numai dacă satisface următoarele condiţii:
a) Zf (x) ≥ 0 pentru orice x ∈ R.

b) f (x)dx = 1.
−∞

În continuare vom considera variabile aleatoare care admit densitate.

Propoziţia 4.1.4. Dacă X este o variabilă aleatoare continuă atunci

P (X = x) = 0, pentru orice x ∈ R.

Demonstraţie. Fie x ∈ R şi (xn )n , (yn )n ⊂ R astfel ı̂ncât xn % x, yn & x. Folosind


continuitatea măsurii de probabilitate P şi a funcţiei de repartiţie Fx avem:

P (X = x) = lim P (xn < x ≤ yn ) = lim (P (X ≤ yn ) − P (X ≤ xn ))


n→∞ n→∞

= lim (FX (yn ) − FX (xn )) = 0.


n→∞

q.e.d.

Remarcă 4.1.5. Spre deosebire de cazul discret, avem:


Z β
P (α < X ≤ β) = P (α ≤ X ≤ β) = P (α ≤ X < β) = P (α < X < β) = f (t)dt.
α

65
Justificarea identităţilor este imediată folosind Propoziţia 4.1.4.

Z arăta că pentru orice A ∈ B(R):


Mai general, se poate
(i) P (X ∈ A) = fX (x)dx.
A
(ii) (Formula de transport) Dacă ϕ : R −→ R este o aplicaţie continuă şi ϕ ◦ fX este
integrabilă pe A, atunci Z
P (ϕ ◦ X ∈ A) = ϕ(x)fX (x)dx.
A

4.2 Funcţia de repartiţie condiţionată şi formula lui Bayes


Definiţie 4.2.1. Fie X o variabilă aleatoare şi A ∈ F astfel ı̂ncât P (A) 6= 0. Se numeşte
funcţie de repartiţie condiţionată de evenimentul A a variabilei aleatoare X, funcţia
FX (·, A) : R −→ R definită prin:

P ({X ≤ x} ∩ A)
FX (x|A) = P ({X ≤ x}| A) = , x ∈ R.
P (A)

Având ı̂n vedere definiţia de mai sus, rezultă că funcţia de repartiţie condiţionată are aceleaşi
proprietăţi ca şi funcţia de repartiţie.
Dacă considerăm X o variabilă aleatoare continuă şi A ∈ F, atunci P (X = x) = 0 şi prin
urmare nu are sens să luăm ı̂n considerare P (A|{X = x}). Totuşi, poate fi avută definirea
P (A|{X = x}) după cum urmează, definiţie care se va dovedi utilă ı̂n continuare pentru
extinderea formulei lui Bayes: Dacă P (A) > 0

FX (x + |A) − FX (x|A)
P (A|{X = x}) = lim P (A|x < X ≤ x + ) = P (A) lim
→0 →0 FX (x + ) − FX (x)

fX (x|A)
= P (A) .
fX (x)
Remarcă 4.2.2. Fie a, b ∈ R, A ∈ F cu P (A) 6= 0 şi X o variabilă aleatoare. Atunci,
următoarele identităţi au loc:
(i) P (a < X ≤ b|A) = FX (b|A) − FX (a|A).
FX (b|A) − FX (a|A)
(ii) P (A|a < X ≤ b) = P (A) .
FX (b) − FX (a)
Demonstraţie.
P ({a < X ≤ b} ∩ A) P ({X ≤ b} ∩ A) − P ({X ≤ a} ∩ A)
(i) P (a < X ≤ b|A) = =
P (A) P (A)

= FX (b|A) − FX (a|A).
(ii) Folosind definiţia probabilităţii condiţionate obţinem:

P ({a < X ≤ b} ∩ A) P (A|a < X ≤ b)


P (A|a < X ≤ b) = = P (A)
P (a < X ≤ b) P (a < X ≤ b)

66
FX (b|A) − FX (a|A)
= P (A) .
FX (b) − FX (a)
q.e.d.

Propoziţia 4.2.3. Fie A ∈ F cu P (A) 6= 0 şi X o variabilă aleatoare. Atunci au loc


următoarele:
(i) (Formula probabilităţii totale)
Z
P (A) = P (A|{X = x})fX (x)dx.
R

(ii) (Formula lui Bayes)


P (A|{X = x})fX (x)
fX (x|A) = Z .
P (A|{X = x})fX (x)dx
R

Demonstraţie. (i) Folosind proprietatea funcţiei de repartiţie condiţionată


Z
fX (x|A)dx = 1 şi definiţia probabilităţii P (A|{X = x}), obţinem:
R
Z Z
P (A) = P (A) fX (x|A)dx = P (A|{X = x})fX (x)dx.
R R

(ii) Folsind formula probabilităţii totale avem:


P (A|{X = x})fX (A) P (A|{X = x})fX (A)
fX (x|A) = =Z .
P (A)
P (A|{X = x})fX (x)dx
R

q.e.d.

4.3 Repartiţii multidimensionale


Modelele de probabilitate care apar ı̂n viaţa reală presupun de regulă considerarea mai multor
cantităţi numerice aleatoare. În această secţiune vom modela astfe de date prin utilizarea
mai multor variabile aleatoare definite pe un acelaşi spaţiu de probabilitate, sens ı̂n care vom
introduce noţiunea de vector aleator.
În cele ce urmează vom considera p ∈ N∗ şi familia finită (Xi )i=1,p de variabile aleatoare
definite pe spaţiul de probabilitate (Ω, F, P ).
Se numeşte vector aleator aplicaţia X = (X1 , . . . , Xp ) : Ω −→ Rp definită prin
X(ω) = (X1 (ω), . . . , Xp (ω)).
Definiţie 4.3.1. (Funcţia de repartiţie comună) Fie X = (X1 , . . . , Xp ) un vector aleator. Se
numeşte funcţie de repartiţie comună a vectorului aleatoar X, funcţia FX : Rp −→ R
definită prin:
FX (x) = P (X ≤ x) = P (X1 ≤ x1 , X2 ≤ x2 , . . . , Xp ≤ xp ), x = (x1 , x2 , . . . , xp ) ∈ Rp ,

67
Propoziţia 4.3.2. (proprietăţile funcţiei de repartiţie comună) Următoarele afirmaţii au loc:
(i) FX este o funcţie nedescrescătoare ı̂n fiecare argument;
(ii) FX continuă la dreapta şi cu limită la stânga ı̂n orice punct ı̂n fiecare argument;
(iii) FX mărginită pe [0, 1], lim FX (x1 , . . . , xp ) = 0, pentru orice i ∈ {1, . . . , p} şi
xi →−∞
lim FX (x1 , . . . , xp ) = 1.
(x1 ,...,xp )→(∞,...,∞)
(iv) FX are un număr cel mult numărabil de puncte de discontinuitate (de prima speţa) ı̂n
fiecare argument.

Remarcă. Proprietăţile din Propoziţia 4.3.2 nu sunt suficiente pentru ca acestea să definească
funcţia de repartiţie a unei variabile aleatoare.

Similar cazului 1-dimensional, introducem ı̂n continuare noţiunea de densitate de probabi-


litate asociată unui vector aleator.

Definiţie 4.3.3. Vectorul aleator X = (X1 , . . . , Xp ) admite densitate de probabilitate dacă


există o funcţia fX : Rp −→ [0, ∞) integrabilă astfel ı̂ncât
Z x1 Z xp
(4.2) FX (x1 , . . . , xp ) = ... fX (t1 , . . . , tp )dt1 . . . dtp , (x1 , . . . , xp ) ∈ Rp .
−∞ −∞

Funcţia fX se numeşte densitatea de probabilitate comună a vectorului aleator X.

Propoziţia
Z Z4.3.4. Următoarele afirmaţii sunt adevărate:
a) . . . fX (t1 , . . . , tp )dt1 . . . dtp = 1.
R R
b) dacă fX este continuă pe D ⊂ Rp , atunci FX diferenţiabilă pe D şi

∂ n FX (x1 , . . . , xp )
= fX (x1 , . . . , xp ), pentru orice (x1 , . . . , xp ) ∈ D.
∂x1 . . . ∂xp

c) Dacă (x1 , . . . , xp ), (y1 , . . . , yp ) ∈ Rp , xi ≤ yi pentru orice i ∈ {1, . . . , p}, atunci


Z y1 Z yp
P (X1 ∈ (x1 , y1 ], . . . , Xp ∈ (xp , yp ]) = ... fX (t1 , . . . , tp )dt1 . . . dtp .
x1 xp

d) Dacă D ⊂ Rp este o mulţime boreliană din Rp , atunci


Z Z
P (X ∈ D) = P ((X1 , . . . , Xp ) ∈ D) = . . . fX (t1 , . . . , tp )dt1 . . . dtp .
D

Demonstraţie. Identitatea de la punctul a) este o consecinţă a proprietăţii (iii) din Propoziţia


4.3.2. Punctul b) rezultă derivând parţial după fiecare variabilă relaţia 4.1.2. Justificările
punctelor c) şi d) rămân ca exerciţiu. q.e.d.

Remarcă. O funcţie f : Rp → R reprezintă densitatea unui vector aleator X = (X1 , . . . , Xp ),


dacă şi numai dacă satisface următoarele condiţii:
a) f (t1 , . . . , tp ) ≥ 0 pentru orice (t1 , . . . , tp ) ∈ Rp .

68
Z Z
b) ... fX (t1 , . . . , tp )dt1 . . . dtp = 1.
R R

În cazul discret, când variabile aleatoare X1 , . . . , Xp sunt discrete, avem că funcţia de repartiţie
este dată prin

FX (t1 , . . . , tp ) = P (X1 ≤ t1 , . . . , Xp ≤ tp ), t = (t1 , . . . , tp ) ∈ Rp ,


p
\
unde {X ≤ t} = {X1 ≤ t1 , . . . , Xp ≤ tp } = {Xi ≤ ti },
i=1

iar densitatea de repartiţie (funcţia de probabilitate) este dată prin:

fX (t1 , . . . , tp ) = P (X1 = t1 , . . . , Xp = tp ), t = (t1 , . . . , tp ) ∈ Rp ,


p
\
unde {X = t} = {X1 = t1 , . . . , Xp = tp } = {Xi = ti }.
i=1

În acest caz, o funcţie f : Rp → R reprezintă densitatea unui vector aleator X = (X1 , . . . , Xp ),
dacă satisface următoarele condiţii:
a) X . , tp ) ≥ 0 pentru orice (t1 , . . . , tp ) ∈ Rp .
f (t1 , . .X
b) ... fX (t1 , . . . , tp ) = 1.
t1 tp

Definiţie 4.3.5. Fie vectorul aleator X = (X1 , . . . , Xp ) şi fX densitatea sa de probabilitate.


Pentru fiecare i ∈ {1, . . . , p} considerăm funcţia FXi : R −→ [0, ∞) definită prin
Z x Z Z
FXi (x) = dt . . . fX (t1 , . . . , ti−1 , t, ti+1 , . . . tp )dt1 . . . dti−1 dti+1 . . . dtp , x ∈ R.
−∞ R R

Funcţiile FXi , i = 1, p se numesc funcţiile marginale de repartiţie ale vectorului aleator X.

Definiţie 4.3.6. Vectorul aleator X = (X1 , . . . , Xp ) admite densitate marginală de probabilitate


după componenta i, i ∈ {1, . . . , p} dacă există o funcţie fXi : R −→ [0, ∞) integrabilă astfel
ı̂ncât Z x
FXi (x) = fXi (t)dt, x ∈ R.
−∞

Funcţiile fXi ,i = 1, p, se numesc densităţile de probabilitate comună a vectorului aleator


X.

Propoziţia
Z 4.3.7. Următoarele afirmaţii sunt adevărate pentru orice i ∈ {1, . . . , p}:
a) fXi (t)dt = 1;
R
b) dacă fXi este continuă pe D ⊂ R, atunci FXi derivabilă pe D şi

FX0 i (x) = fXi (x), pentru orice x ∈ D.

69
Demonstraţia propoziţiei rămâne ca exerciţiu.

În cazul discret, când variabile aleatoare X1 , . . . , Xp sunt discrete, avem că funcţiile marginale
de repartiţie sunt date prin
XX XX X
FXi (x) = ... ... fX (t1 , . . . , ti−1 , t, ti+1 , . . . , tp ), i ∈ {1, . . . , p}
t≤x t1 ti−1 ti+1 tp

iar densităţile de marginale sunt date prin:


X XX X
fXi (x) = ... ... fX (t1 , . . . , ti−1 , x, ti+1 , . . . , tp ), i ∈ {1, . . . , p}
t1 ti−1 ti+1 tp

În particular (cazul p = 2), densităţile marginale ale vectorului Z = (X, Y ) sunt:
X
fX (x) = fZ (x, y) = P (X = x), unde x aparţine suportului lui X,
y
X
fY (y) = fZ (x, y) = P (Y = y), unde y aparţine suportului lui Y.
x

4.4 Independenţa variabilelor aleatoare continue


Definiţie 4.4.1. Spunem că două variabile aleatoare X, Y sunt independente dacă pentru
orice A, B ∈ B(R) avem

P (X −1 (A) ∩ Y −1 (B)) = P (X −1 (A))P (Y −1 (B)).

Remarcăm faptul că definiţia independenţei ı̂n cazul discret se deduce din definiţia mai sus
formulată.
Propoziţia 4.4.2. Fie X, Y două variabile aleatoare continue independente şi două funcţii
f, g : R → R continue pe R. Atunci variabilele aleatoare f ◦ X, f ◦ Y sunt independente.
Demonstraţie. Afirmaţia rezultă din continuitatea funcţiilor f, g (ı̂ntorc deschişi ı̂n deschişi),
independenţa celor două variabile şi relaţia

P ((f ◦ X)−1 (A) ∩ (g ◦ Y )−1 (B)) = P ({X −1 (f −1 (A))} ∩ {Y −1 (g −1 (B))})

= P (X −1 (f −1 (A)))P (Y −1 (g −1 (B))) = P ((f ◦ X)−1 (A))P ((g ◦ Y )−1 (B)).


q.e.d.

Definiţia independenţei poate fi generalizată pentru familii numărabile de variabile aleatoare


după cum urmează:
Definiţie 4.4.3. Spunem că (Xi )i∈I , I numărabilă, este o familie de variabile aleatoare
independente dacă pentru orice J ⊂ I finită şi (Ai )i∈I ∈ B(R) avem
\ Y
P ( {Xk−1 (Ak )}) = P (Xk−1 (Ak )).
k∈J k∈J

70
Propoziţia 4.4.4. Fie X = (X1 , X2 ) un vector aleator format din variabile aleatore continue
având densitate. Folosind notaţiile precedente, următoarele afirmaţii sunt echivalente:
(i) variabilele aleatoare continue X1 , X2 sunt independente;
(ii) FX (x1 , x2 ) = FX1 (x1 )FX2 (x2 ), pentru orice x1 , x2 ∈ R;
(iii) fX (x1 , x2 ) = fX1 (x1 )fX2 (x2 ), pentru orice x1 , x2 ∈ R.

Demonstraţie. Având ı̂n vedere definiţia 4.4.1, se poate arăta că X1 , X2 sunt independente
dacă şi numai dacă pentru orice x1 , x2 ∈ R avem

P (X1 ≤ x1 , . . . , X2 ≤ x2 ) = P (X1 ≤ x1 )P (X2 ≤ x2 ),

sau echivalent
FX (x1 , x2 ) = FX1 (x1 )FX2 (x2 ).
Derivând parţial după cele două variabile, obţinem (ii) ⇔ (iii).
q.e.d.

4.5 Operaţii cu variabile aleatoare continue


Reamintim pentru ı̂nceput un rezultat care priveşte următoarea situaţie practică: dacă X este
un vector aleator care admite densitate şi ia valori ı̂ntr-o mulţime V şi ϕ e o funcţie de la V in
U , atunci ne punem problema modului de exprimare a densităţii variabilei ϕ(X) ı̂n funcţie de
cea a lui X.

Propoziţia 4.5.1. (transformări inversabile ı̂ntre vectori aleatori) Fie p ∈ N∗ , U, V ⊂ Rp ,


X = (X1 , . . . , Xp ) un vector aleator pe câmpul de probabilitate (Ω, F, P ) care ia valori ı̂n V şi
ϕ : V −→ U o aplicaţie (transformare) inversabilă ı̂ntre cele două domenii, astfel ı̂ncât pentru
(x1 , . . . , xp ) ∈ V , (y1 , . . . , yp ) ∈ U avem:

x1 = ϕ1 (y1 , . . . , yp )

..
. .


xp = ϕp (y1 , . . . , yp )

Presupunem ı̂n plus că funcţiile ϕ1 , . . . , ϕp ∈ C 1 (V ) şi că Jacobianul asociat transformării este
nenul pe U , unde reamintim că
∂ϕ1 ∂ϕ1
∂y . . . ∂yp
1
J(y1 , . . . , yp ) = ... ..

∂ϕp .
∂ϕp

∂y1
... ∂yp

Atunci, aplicaţia ϕ ◦ X este un vector aleator şi dacă presupunem că X şi ϕ ◦ X au densităţi
atunci avem că:

fϕ◦X (y1 , . . . , yp ) = fX (ϕ1 (y1 , . . . , yp ), . . . , ϕp (y1 , . . . , yp ))|J(y1 , . . . , yp )|.

71
Propoziţia 4.5.1 se demonstrează folosind ı̂n mod esenţial formula de transport şi formula
de schimbare de variabilă multidimensională.

Suma şi diferenţa a două variabile aleatoare continue


Fie X, Y variabile aleatoare continue având funcţiile de repartiţie fX , respectiv fY şi vectorul
aleator (X, Y ) având funcţia de repartiţie f(X,Y ) . Determinăm ı̂n continuare densitatea de
repartiţie a variabilei aleatoare X + Y .
Considerăm variabilele aleatoare continue U = X + Y , V = X cu fU şi fV densităţile
asociate şi aplicaţia ϕ : R2 −→ R2 definită prin ϕ(u, v) = (v, u − v), (u, v) ∈ R2 . Aplicaţia este
inversabilă şi ϕ−1 (u, v) = (u + v, u), (u, v) ∈ R2 .
Aplicând Teorema 4.5.1 obţinem că densitatea de repartiţie a vectorului aleator (U, V ),
notată f(U,V ) , este dată de:

fU V (u, v) = f(X+Y,X) (u, v) = fϕ◦(X,Y ) (u, v) = f(X,Y ) (ϕ(u, v))|J(u, v)|

= f(X,Y ) (v, u − v)| − 1| = f(X,Y ) (v, u − v).


Considerând densitatea marginală asociată primei componente rezultă că:
Z
fU (u) = fX+Y = f(X,Y ) (v, u − v)dv.
R

Remarcă. Similar cazului discret, densitatea de repartiţie a sumei a două variabile aleatoare
continue independente este dată de convoluţia densităţilor acestora.

Într-adevăr, folosind Propoziţia 4.4.4 avem:


Z Z Z
w=u−v
fX+Y (u) = f(X,Y ) (v, u − v)dv = fX (v)fY (u − v)dv = fX (u − w)fY (w)dw.
R R R

Reamintim faptul că dacă f, g : R −→ R sunt integrabile, atunci convoluţia dintre f şi g (notată
f ∗ g) este definită prin:
Z Z
z=x−y
(f ∗ g)(x) = f (y)g(x − y)dy = f (x − z)g(z)dz.
R R

Similar, se poate determina densitatea diferenţei a două variabile aleatoare X, Y :


Z
fX−Y (u) = f(X,Y ) (v, v − u)dv.
R

Dacă ı̂n plus X şi Y sunt independente obţinem:


Z
fX−Y (u) = fX (v)fY (v − u)dv.
R

Justificarea ultimelor afirmaţii rămâne ca exerciţiu.

72
Produsul şi câtul a două variabile aleatoare continue
Fie X, Y variabile aleatoare continue având funcţiile de repartiţie fX , respectiv fY şi vectorul
aleator (X, Y ) având funcţia de repartiţie f(X,Y ) . Determinăm ı̂n continuare densitatea de
repartiţie a variabilei aleatoare XY .
Considerăm variabilele aleatoare continue U = XY , V = X cu fU şi fV densităţile asociate
şi aplicaţia ϕ : R2 −→ R2 definită prin ϕ(u, v) = (v, uv ), (u, v) ∈ R × R∗ . Aplicaţia este
inversabilă şi ϕ−1 (u, v) = (uv, u), (u, v) ∈ R2 .
Aplicând Teorema 4.5.1 obţinem că densitatea de repartiţie a vectorului aleator (U, V ),
notată f(U,V ) , este dată de:

fU V (u, v) = f(XY,X) (u, v) = fϕ◦(X,Y ) (u, v) = f(X,Y ) (ϕ(u, v))|J(u, v)|

u 1 1 u
= f(X,Y ) (v, )| − | = f(X,Y ) (v, ).
v v |v| v
Considerând densitatea marginală asociată primei componente rezultă că:
Z
1 u
fU (u) = fXY = f(X,Y ) (v, )dv.
R |v| v

Remarcă. Densitatea de repartiţie a produsului a două variabile aleatoare continue indepen-


dente este: Z
1 u
fXY (u) = fX (v)fY ( )dv.
R |v| v

Similar, se poate determina densitatea câtului a două variabile aleatoare X, Y :


Z
f X (u) = |v|f(X,Y ) (uv, v)dv.
Y
R

Dacă ı̂n plus X şi Y sunt independente obţinem:


Z
f X (u) = |v|fX (uv)fY (v)dv.
Y
R

Justificarea ultimelor afirmaţii rămâne ca exerciţiu.

4.6 Caracteristici numerice ale variabilelor aleatoare continue şi


vectorilor aleatori
Similar cazului discret, prezentăm ı̂n continuare principalele caracteristici numerice asociate
variabilelor aleatoare continue.

Media unei variabile aleatoare continuă.

73
Definiţie 4.6.1. Fie X o variabilă aleatoare continuă
Z având densitatea fX . Spunem că vari-
abila aleatoare X are medie dacă integrală |x|fX (x) este convergentă şi ı̂n acest caz
R
numim media variabilei aleatoare X (şi notăm M [X], E[X] sau m) numărul real
Z
xfX (x)
R

Dacă integrala nu este convergentă atunci spunem că variabila aleatoare X nu are medie.

Exemplu (variabilă aleatoare care nu admite medie). Variabila aleatoare X este repartizată
Cauchy dacă densitatea sa de repartiţie este
1
fX (x) = , x ∈ R.
π(1 + x2 )

Variabila X nu are medie ı̂ntrucât:


Z Z ∞ Z ∞
x x
|x|fX (x)dx = π dx − π dx =
R 0 1 + x2 0 1 + x2
π +∞ π
2
0
2
ln(1 + x ) − ln(1 + x ) = ∞.
2 −0 2 −∞

Propoziţia 4.6.2. (Proprietăţile mediei) Dacă X, Y variabile aleatoare continue care au medii,
atunci următoarele afirmaţii sunt adevărate:
(i) X ± Y admit medie şi M [X ± Y ] = M [X] ± M [Y ].
(ii) XY admite medie şi M [XY ] = M [X]M [Y ], dacă X, Y independente.
(iii) (M [X])2 ≤ M [X 2 ].
(iv) (M [XY ])2 ≤ M [X 2 ]M [Y 2 ] (inegalitatea lui Schwartz).

Demonstraţie.
(i) Fie fX , fY densităţile variabilelor X, respectiv Y . Folosind formula densităţii sumei a
două variabile aleatoare şi schimbând ordinea de integrare obţinem:
Z Z Z Z Z
M [X + Y ] = ufX+Y (u)du = u f(X,Y ) (v, u − v)dvdu = ( uf(X,Y ) (v, u − v)du)dv
R R R R R
Z Z Z Z Z Z
w=u−v
= ( (v + w)f(X,Y ) (v, w)dw)dv = (v f(X,Y ) (v, w)dw)dv + (w f(X,Y ) (v, w)dv)dw
R R R R R R
Z Z
= vfY (v)dv + wfX (w)dw = M [X] + M [Y ].
R R
Similar se arată proprietatea pentru diferenţă.
(ii) Fie fX , fY densităţile variabilelor X, respectiv Y . Folosind formula densităţii produsului
a două variabile aleatoare şi independenţa variabilelor obţinem:
Z Z Z Z Z
indep. 1 u
M [X · Y ] = ufXY (u)du = (u fX+Y (u)dv)du = (u fX (v)fY ( )dv)du
R R R R R |v| v

74
Z Z Z Z
w= u
v
= (w vfX (v)fY (w)dv)dw = ( wfY (w)dw)( vfX (v)dv) = M [X] · M [Y ].
R R R R
(vi), (vii) Inegalităţile rezultă raţionând ca ı̂n Propoziţia 3.5.2 (vi), (vii). q.e.d.

Moment iniţial de ordin k a unei variabile aleatoare continuă, k ∈ N.


Definiţie 4.6.3. Fie X o variabilă aleatoare continuă având densitatea ZfX . Spunem că vari-
abila aleatoare X are moment iniţial de ordin k dacă integrala |x|k fX (x) este con-
R
vergentă şi ı̂n acest caz numim moment iniţial de ordin k a variabilei aleatoare X (şi
notăm Mk [X], Ek [X] sau mk ) numărul real
Z
k
Mk [X] = M [X ] = xk fX (x).
R

Dacă seria nu este convergentă atunci spunem că variabila aleatoare X nu are moment
iniţial de ordin k.
Moment centrat de ordin k a unei variabile aleatoare continuă, k ∈ N.
Definiţie 4.6.4. Fie X o variabilă aleatoare continuă având densitatea fZX . Spunem că vari-
abila aleatoare X are moment centrat de ordin k dacă integrala |x − M [X]|k fX (x)
R
este convergentă şi ı̂n acest caz numim moment centrat de ordin k a variabilei aleatoare
X (şi notăm µk [X]) numărul real
Z
µk [X] = M [(X − M [X]) ] = (x − M [X])k fX (x).
k
R

Dacă seria nu este convergentă atunci spunem că variabila aleatoare X nu are moment
centrat de ordin k.
În general, dacă X este o variabilă aleatoare continuă având densitatea fX şi g : R → R
este o funcţie continuă pe R atunci
Z g(X) este o variabilă aleatoare. Atunci, variabila aleatoare
g(X) are medie dacă integrala |g(x)|fX (x)dx este convergentă şi ı̂n acest caz
R
Z
M [g(X)] = g(x)fX (x)dx.
R

În particular, dacă g(x) = xk , atunci se obţine momentul iniţial de ordin k, iar dacă
g(x) = (x − M [X])k , atunci se obţine momentul centrat de ordin k.

Dispersia şi abaterea medie pătratică a unei variabile aleatoare continuă.


Definiţie 4.6.5. Fie X o variabilă aleatoare continuă având densitatea fX . Numim dispersia
variabilei aleatoare X (şi notăm σ 2 [X] sau D2 [X]) momentul centrat de ordin 2 a variabilei
aleatoare X, adică numărul real
Z
D [X] = M [(X − M [X]) ] = (x − M [X])2 fX (x).
2 2
R

75
Z
Dacă seria |x − M [X]|2 fX (x) nu este convergentă atunci spunem că variabila aleatoare
R
X nu are dispersie.
Numim abaterea
p medie pătratică a variabilei aleatoare X (notăm σ[X]) radicalul dis-
2
persiei, adică D [X].

Remarcă. Proprietăţile dispersiei prezentate ı̂n cazul discret rămân valabile şi pentru cazul
continuu.

Covarianţa şi coeficientul de corelaţie a două variabile aleatoare se definesc ca ı̂n cazul
discret, proprietăţile acestora, prezentate ı̂n cazul discret, fiind valabile şi ı̂n cazul continuu.

Media unui vector aleator.

Definiţie 4.6.6. Fie X = (X1 , . . . , Xp ), p ∈ N∗ un vector aleator având densitatea fX .


Spunem
Z Z că vectorul aleator X are moment iniţial de ordin (k1 , . . . , kp ) dacă integrala
... |x1 |k1 . . . |xp |kp fX (x1 , . . . , xp )dx1 . . . dxp este convergentă şi ı̂n acest caz numim media
R R
variabilei aleatoare X (şi notăm M [X], E[X] sau m) numărul real
Z Z
. . . xk11 . . . xkpp fX (x1 , . . . , xp )dx1 . . . dxp
R R

Dacă integrala nu este convergentă atunci spunem că variabila aleatoare X nu are medie.

Definiţie 4.6.7. Numim matricea de covarianţă asociată vectorilor aleatori X = (X1 , . . . , Xp ),


Y = (Y1 , . . . , Yp ), p ∈ N∗ , matricea

(Cov(Xi , Yj ))1≤i,j≤p .

4.7 Funcţii caracteristice


Definiţie. Fie X o variabilă aleatoare reală. Numim funcţia caracteristică a variabilei
aleatoare X aplicaţia ϕX : R → C definită prin

ϕX (t) = M (eitX ),

unde eitX reprezintă variabila aleatoare bidimensională (cos tX, sin tX).

Remarcăm că
X


 eitxα pα , dacă X discretă, X : (xα , pα )α∈I
α∈I
ϕX (t) = Z .
itx
 e fX (x)dx , dacă X continuă, având densitatea fX


R

Întrucât pentru orice x ∈ R avem |eitx | = |cos(tx) + isin(tx)| = 1 rezultă că funcţia
caracteristică există pentru orice variabilă aleatoare X.

76
Propoziţia 4.7.1. (Proprietăţile funcţiei caracteristice) Următoarele afirmaţii au loc pentru
funcţia caracteristică a unei variabile aleatoare X:
(i) ϕX (0) = 1 şi |ϕX (t)| < 1 pentru orice t ∈ R.
(ii) ϕX (−t) = ϕX (t) pentru orice t ∈ R.
(iii) ϕX este uniform continuă pe R.
(iv) dacă Y = aX + b, cu a şi b ∈ R, atunci ϕY (t) = eitb ϕX (at).
(v) dacă (Xi )i∈{1,...,n} sunt variabile aleatoare independente atunci

ϕX1 +...+Xn = ϕX1 + . . . + ϕXn .

Reciproca afirmaţiei nu este adevărată.


(vi) dacă X admite momente iniţiale de orice ordin (Mk [X] = M [X k ] < ∞ pentru orice
k ∈ N) atunci funcţia caracteristică admite derivate de orice ordin şi are loc relaţia
1 (k)
Mk (X) = ϕ (0), k ∈ N.
ik X
Z
Demonstraţie. (i) ϕX (0) = fX (x)dx = 1. Pentru t ∈ R avem
R
Z Z
itx
ϕX (t) ≤ |e |fX (x)dx = fX (x)dx = 1.
R R

(ii) Pentru t ∈ R avem


Z Z Z
−itx
ϕX (−t) = e fX (x)dx = eitx fX (x)dx = eitx fx (x)dx = ϕX (t).
R R R

(iii) Următoarele inegalităţi se vor folosi pe parcursul demonstraţiei:

|eit1 x − eit2 x | ≤ |x||t1 − t2 |, pentru orice t1 , t2 ∈ R.

|eit1 x − eit2 x | ≤ |eit1 x | + |eit2 x | ≤ 2, pentru orice t1 , t2 ∈ R.


Pentru t1 , t2 ∈ R şi M > 0 avem
Z Z
it1 x
|ϕX (t1 ) − ϕX (t2 )| = | e fX (x)dx − eit2 x fX (x)dx
R R
Z Z
it1 x−it2 x
≤| |e fX (x)dx| + | |eit1 x−it2 x fX (x)dx|
{x≤M } {x>M }
Z Z
≤ |t1 − t2 | |x|fX (x)dx + 2 fX (x)dx.
{x≤M } {|x|>M }

Dacă alegem M > 0 astfel ı̂ncât P (X > M ) < 4 , atunci pentru |t1 − t2 | < 
2M
obţinem
 
|ϕX (t1 ) − ϕX (t2 )| < M + 2 = ,
2M 4
adică ϕX este uniform continuă pe R.

77
(iv) Pentru orice a, b ∈ R şi t ∈ R următorea relaţie are loc

ϕY (t) = M [E ity ] = M [eitax+itb ] = eitb M [eitax ] = eitb M [aX] = eitb ϕaX (t).

(v) Din ipoteză avem că variabilele aleatoare eitX1 , . . . , eitXn sunt independente. Demon-
străm proprietatea pentr n = 2, cazul general rezultând prin inducţie după n.
Folosind proprietăţile mediei obţinem pentru orice t ∈ R

ϕX1 +X2 (t) = M [eit(x1 +x2 ) ] = M [eitx1 eitx2 ] = M [eitx1 ]M [eitx2 ] = ϕX1 (t)ϕX2 (t).

Reciproca nu are loc, un contraexemplu ı̂n acest sens fiind furnizat de cazul ı̂n care X1 =
X2 = X, unde X este o variabilă aleatoare distribuită Cauchy, adică are densitatea de repartiţie
1
fX (x) = . Întrucât ϕX (t) = e−|t| , avem că ϕX1 +X2 (t) = e−2|t| = ϕX1 (t)ϕX2 (t), deşi
π(1 + x2 )
variabilele aleatoare nu sunt independente ı̂ntrucât acestea sunt egale.
(vi) Întrucât pentru orice k ∈ N∗ avem că
Z Z
k itx
| x e fX (x)dx| ≤ |x|k fX (x)dx = Mk [X] < ∞,
R R

rezultă că funcţia caracteristică admite derivate de orice ordin şi pentru k ∈ N∗ avem
Z
(k)
ϕX (t) = eitx xk fX (x)dx.
R

Prin urmare, pentru t = 0 avem că oricare ar fi k ∈ N


Z
(k) k
ϕX (0) = i xk fX (x)dx = ik Mk [X].
R

q.e.d.

Propoziţia 4.7.2. Fie X este o variabilă aleatoare continuă care admite denistate şi pre-
supunem că există δ > 0 astfel ı̂ncât M (|X|n ) ≤ δ n pentru orice n ∈ N. Atunci funcţia
caracteristică asociată lui X admite o dezvoltare ı̂n serie de puteri iar coeficienţii săi sunt
tocmai momentele variabilei multiplicate cu un factor constant.
Demonstraţie. Folosind dezvoltarea ı̂n serie a lui eitx ı̂n jurul lui 0, cu restul ı̂n forma lui
Lagrange, obţinem că există θ ∈ (0, 1) astfel ı̂ncât
itx (it)2 (it)n−1 (it)n
Z Z
itx
ϕX (t) = e fX (x)dx = (1 + + + ... + + θ)fX (x)dx
R R 1! 2! n − 1! n!
(it)n−1 (it)n
Z
0 it 1 n−1
= M [X ] + M [X ] + . . . + M [X ] + xn θfX (x)dx
1! (n − 1)! n! R
(it)n
Deoarece lim = 0 şi
n→∞ n!
Z Z Z
n n
| x θfX (x)dx| ≤ |x θ|fX (x)dx ≤ |x|n fX (x)dx < δ n ,
R R R

78
rezultă că
(it)n
Z
lim | xn θfX (x)dx| = 0.
n→∞ n! R
Prin urmare
X (it)n X (it)n
ϕX (t) = Mn [X] = M [X n ].
n≥0
n! n≥0
n!

q.e.d.

Remarcă 4.7.3. Două variabile aleatoare având o aceeaşi funcţie caracteristică sunt identice
ı̂n distribuţie. În particular, dacă variabilele admit densităţi, atunci densităţile sunt egale.

Remarcă 4.7.4. (i) Întrucât există următoarea legătură ı̂ntre funcţia generatoare de momente
şi funcţia caracteristică,

ϕX (t) = GX (it), pentru orice t ∈ R,

rezultă că cele două funcţii au proprietăţi similare. Astfel, sunt recuperate proprietăţile funcţiei
generatore de momente, inclusiv cele prezentate ı̂n cadrul Propoziţiei 3.6.2 pentru cazul vari-
abilelor aleatoare discrete şi anume
(k)
GX (0) = Mk [X] = M [X k ], k ∈ N.

Spre deosebire de funcţia caracteristică evidenţiem faptul că funcţia generatoare de momente
poate să fie nemărginită iar funcţia caracteristică există indiferent de situaţie, spre deosebire
de existenţa funcţiei generatoare de momente, dacă intregrala (cazul continuu) sau seria co-
respunzătoare (cazul discret) nu converg absolut. (ii) Funcţia caracteristică poate fi privită ca
transformata Fourier a densităţii de repartiţie şi de aceea se poate deduce din inversa transfor-
matei Fourier.

4.8 Principalele distribuţii continue

a) Distribuţia uniformă - U nif [a, b], a, b ∈ R, a < b


Variabila aleatoare X este distribuită uniform pe intervalul [a, b] dacă densitatea sa are
forma 
 1 , dacă x ∈ [a, b]
fX (x) = b − a .
0 , ı̂n rest

79
Figura 24: Unif(0,1) pe intervalul [0,1]

fX este o funcţie de densitate ı̂ntrucât fX (x) ≥ 0 pentru orice x ∈ R, iar


Z ∞ Z b
1 x b
fX (x)dx = dx = = 1.
−∞ a b−a b−a a

Probabilitatea ca o variabilă aleatoare uniformă să ia valori ı̂ntr-un interval de lungime


fixată (conţiunut ı̂n intervalul [a, b]) este independentă de locaţia efectivă a intervalului, fiind
ı̂nsă dependentă de lungimea intervalului [a, b]. De aceea variabila aleatoare poartă numele de
”uniformă”.
Într-adevăr, dacă [c, d] ⊂ [a, b] atunci
d
x d d − c
Z
1
P (X ∈ [c, d]) = dx = = .
c b−a b−a c b−a

Remarcăm că rezultatul nu depinde de intervalul [c, d] ci doar de lungimea acestuia.


Un exemplu de variabilă aleatoare uniformă este dat de rezultatului jocului la o ruletă având
o infinitate de poziţii, obţinute prin ı̂mpărţirea discul aferent ruletei ı̂ntr-o infinitate de părţi,
funcţie de un unghi x ∈ [0, 2π]. Cazul ı̂mpărţirii discului ruletei ı̂n n părţi (cazul finit) pune ı̂n
evidenţă distribuţia uniformă discretă.

Media şi dispersia variabilei aleatoare uniforme


Z ∞ Z b
x x2 b a+b
M [X] = xfX (x)dx = dx = = .
−∞ a b−a 2(b − a) a 2


x3 b
Z
2 2 2 a+b 2 a+b 2
D [X] = M [X ] − M [X] = x2 fX (x)dx − ( ) = −( ) =
−∞ 2 3(b − a) a 2

a2 + ab + b2 a + b 2 (a − b)2
−( ) = .
3 2 12
Funcţia generatoare de momente a variabilei aleatoare uniforme

80
Pentru t ∈ R∗ ,
∞ b
etx b etb − eta
Z Z
tX tx txx
GX (t) = M [e ] = e fX (x)dx e dx = = .
−∞ a b−a t(b − a) a t(b − a)

GX (0) = M [1] = 1.

b) Distribuţia exponenţială - Exp(λ), λ > 0


Variabila aleatoare X este distribuită exponenţial de parametru λ dacă densitatea sa are
forma (
λe−λx , dacă x > 0
fX (x) = .
0 , ı̂n rest

Figura 25: Exp(2) pe intervalul [0,3]

fX este o funcţie de densitate ı̂ntrucât fX (x) ≥ 0 pentru orice x ∈ R, iar


Z ∞ Z ∞ ∞
−λx −λx
fX (x)dx = λe dx = −e = 1.
−∞ 0 0

Distribuţia exponenţială modelează intervalul de timp dintre apariţiile consecutive a două


evenimente. Spre exemplu,
- timpul dintre două cutremure;
- timpul de aşteptare la coadă dintre doi clienţi;
- timpul dintre emailurile recepţionate ı̂ntr-o căsuţa de mail, etc.

Parametrul λ reprezintă rata de apariţie a evenimentului dorit.

Remarcă. Distribuţia exponenţială poate fi folosită ı̂n situaţiile ı̂n care fenomenele modelate
presupun ca timpul scurs ı̂ntre apariţiile a două evenimente să fie o variabilă aleatoare cu pro-
prietatea că probabilitatea ca ea să ia valori ı̂ntr-un interval fixat este proporţională cu lungimea
intervalului (a se vedea Problema 4).

81
Media şi dispersia variabilei aleatoare exponenţiale
Z ∞ Z ∞ Z ∞
−λx
M [X] = xfX (x)dx = xλe dx = − x(e−λx )0 dx =
−∞ 0 0
∞ Z ∞
−λx 1
−xe + e−λx dx = .
0 0 λ

Z ∞ Z ∞
−λx 1 1
2 2
D [X] = M [X ] − M [X] = 2 2
x λe dx − 2 = − x2 (e−λx )0 dx − =
0 λ 0 λ2
∞ Z ∞
1 2 1 1
−x2 e−λx + 2 xe−λx dx − = 2 − 2 = 2.

0 λ2 λ λ λ
0
Funcţia generatoare de momente a variabilei aleatoare exponenţiale
Pentru t ∈ (−∞, λ),
Z ∞ Z ∞ Z ∞
tX tx tx −λx
GX (t) = M [e ] = e fX (x)dx e λe dx = λ e(t−λ)x dx =
−∞ 0 0

e(t−λ)x ∞ λ
λ = .
t−λ 0 λ−t
Pentru t ∈ [λ, ∞), funcţia generatoare de momente nu este definită ı̂ntrucât integrala este
divergentă

c) Distribuţia normală (Gaussiană) - N (µ, σ 2 ), µ ∈ R, σ 2 > 0


Variabila aleatoare X este distribuită normal (sau Gaussian) de parametrii µ şi σ 2 dacă
densitatea sa are forma
1 (x−µ)2
fX (x) = √ e− 2σ2 , x ∈ R.
2πσ 2
În cazul particular µ = 0 şi σ 2 = 1 spunem că X este distribuită normal standard.

Figura 26: N(0,1) pe intervalul [-5,5]

82
Z ∞
t2 1
Folosind faptul că e− 2 dt = √ , deducem că fX este o funcţie de densitate ı̂ntrucât
−∞ 2π
fX (x) ≥ 0 pentru orice x ∈ R, iar
Z ∞ Z ∞ Z ∞
1 −
(x−µ)2 t= x−µ 1 t2
fX (x)dx = √ e 2σ2 dx = √ σ
e− 2 dt = 1.
−∞ 2πσ 2 −∞ 2π −∞

Datorită rolului pe care distribuţia normală ı̂l joacă ı̂n teorema limită centrală (rezultat
fundamental al teoriei probabilităţilor care este prezentat ı̂n capitolul următor), aceasta este
catalogată drept cea mai importantă distribuţie. Mai puţin riguros, teorema limita centrală
afirmă faptul că dacă (Xn )n∈N∗ este un şir de variabile aleatoare independente şi identic reparti-
X1 + . . . + Xn − nµ
zate (ı̂n particular, M [Xk ] = µ şi D2 [XK ] = σ 2 pentru orice k ∈ N∗ ), atunci √
σ n
converge când n → ∞, intr-un anume sens, către o variabilă aleatoare normală standard.

Media şi dispersia variabilei aleatoare normale


Z ∞ Z ∞
1 (x−µ)2
M [X] = xfX (x)dx = √ xe− 2σ2 dx
−∞ 2πσ 2 −∞
Z ∞ Z ∞
t= x−µ 1 t2 t2 σ t2 ∞

=σ √ (σ te− 2 dt + µ e− 2 dt) = − √ e− 2 + µ = µ.
2π −∞ −∞ 2π −∞
Z ∞
1 (x−µ)2
2 2
D [X] = M [(X − M [X]) ] = M [(X − µ) ] = √ 2
(x − µ)2 e− 2σ2 dx
2πσ 2 −∞
∞ ∞
σ2 σ2
Z Z
t= x−µ t2 t2
=σ √ t2 e− 2 dt = √ t(−e− 2 )0 dt
2π −∞ 2π −∞
Z ∞
σ2 2
− t2
∞ σ2 t2
= √ t(−e ) +√ e− 2 dt = σ 2 .
2π −∞ 2π −∞
Funcţia generatoare de momente a variabilei aleatoare normale
Pentru t ∈ R∗ ,
Z ∞ Z ∞
1 (x−µ)2
tX
GX (t) = M [e ] = tx
e fX (x)dx √ etx e− 2σ2 dx
−∞ 2πσ 2 −∞
∞ t2 2 ∞
etµ+ 2 σ
Z Z
v= x−µ 1 2
t(vσ+µ)− v2
(v−tσ 2 ) t2 2
= σ
√ e dv = √ e 2 dv = etµ+ 2 σ .
2π −∞ 2π −∞

Remarca următoare arată că putem ı̂ntotdeauna să ne reducem studiul la cazul variabilelor
aleatoare normale standard.

Remarcă 4.8.1. (Reducerea la cazul variabilei aleatoare normale standard)


X −µ
Dacă X ∼ N (µ, σ 2 ) atunci Y := ∼ N (0, 1).
σ

83
Demonstraţie. Pentru x ∈ R avem
X −µ
FY (x) = P (Y ≤ x) = P ( ≤ x) = P (X ≤ xσ + µ) = Fx (xσ + µ).
σ
Derivând relaţia de mai sus şi folosind ipoteza X ∼ N (µ, σ 2 ) obţinem
1 (xσ+µ−µ)2 1 x2
fY (x) = σfX (xσ + µ) = σ √ e− 2σ 2 = √ e− 2σ2 , pentru orice x ∈ R.
2πσ 2 2π
Prin urmare, Y ∼ N (0, 1). q.e.d.

Propoziţia 4.8.2. (proprietate de stabilitate) Suma a două variabile aleatoare independente


distribuite normal este o variabilă aleatoare distribuită normal.

Demonstraţie. Fie X1 ∼ N (µ1 , σ12 ), X2 ∼ N (µ2 , σ22 ). Pentru t ∈ R avem


indep
GX1 +X2 (t) = M [et(X1 +X2 ) ] = M [etX1 etX2 ] = M [etX1 ]M [etX2 ] = GX1 (t)GX2 (t)
t2 2 t2 2 t2 2 2
= etµ1 + 2 σ1 etµ2 + 2 σ2 = et(µ1 +µ2 )+ 2 (σ1 +σ2 ) .
Prin urmare, X1 + X2 ∼ N (µ1 + µ2 , σ12 + σ22 ). q.e.d.

d) Distribuţia gamma - γ(α, β), α, β > 0


Variabila aleatoare X este distribuită gamma de parametrii α şi β dacă densitatea sa are
forma
 1 xα−1 e− βx , dacă x ≥ 0

fX (x) = β α Γ(α) .
0 , ı̂n rest

Z ∞
unde Γ(α) := tα−1 e−t dt pentru α > 0 (funcţia gamma).
0

Figura 27: γ(4,2) pe intervalul [0,20]

84
fX este o funcţie de densitate ı̂ntrucât fX (x) ≥ 0 pentru orice x ∈ [0, ∞), iar
Z ∞ Z ∞ x
Z ∞
1 x
α−1 − β
t= β 1
fX (x)dx = α Γ(α)
x e dx = tα−1 e−t = 1.
−∞ 0 β Γ(α) 0

Distribuţia gamma este una din cele mai ı̂ntâlnite distribuţii, aceasta fiind importantă da-
torită legăturii cu distribuţiile exponenţiale şi normale.
1
Distribuţia exponenţială este un caz particular al distribuţiei gamma, ı̂ntrucât Γ(1, ) =
β
Exp(β).

Remarcă 4.8.3. (proprietate a funcţiei gamma)


Γ(α + 1) = αΓ(α) pentru orice α > 0.

Demonstraţie. Pentru α > 0 avem


Z ∞ Z ∞ ∞
α−1 −t
Γ(α) = t e dt = t0 (tα−1 e−t )dt = tα e−t

0 0 0
Z ∞
− t((α − 1)tα−2 e−t − tα−1 e−t )dt = −(α − 1)Γ(α) + Γ(α + 1).
0

Prin urmare, Γ(α + 1) = αΓ(α). q.e.d.

Media şi dispersia variabilei aleatoare având distribuţia gamma


Z ∞ Z ∞ x
Z ∞
x α−1 − βx t= β β
M [X] = xfX (x)dx = α Γ(α)
x e dx = tα e−t
−∞ 0 β Γ(α) 0

β Remarca 4.8.3
Γ(α + 1) = = αβ.
Γ(α)
Z ∞ Z ∞ Z ∞
x2 α−1 − βx
x
t= β β2
2
M [X ] = 2
x fX (x)dx = α
x e dx = tα+1 e−t
−∞ 0 β Γ(α) Γ(α) 0
β2 Remarca 4.8.3 β2
= Γ(α + 2) = (α + 1)αΓ(α) = α(α + 1)β 2 .
Γ(α) Γ(α)
Prin urmare,

D2 [X] = M [X 2 ] − M [X]2 = α(α + 1)β 2 − α2 β 2 = αβ 2 .

Funcţia generatoare de momente a variabilei aleatoare având distribuţia gamma


Pentru t ∈ [0, β1 ),
∞ ∞ ∞
etx
Z Z Z
x
GX (t) = M [e ] = tX tx
e fX (x)dx = tx
e fX (x)dx = α
xα−1 e− β dx
0 0 0 β Γ(α)
Z ∞ y=x( β1 −t)
Z ∞
1 α−1 −x( β1 −t) 1
= α x e = y α−1 e−y dy = (1 − βt)−α .
β Γ(α) 0 (1 − βt)α Γ(α) 0

85
Pentru t ∈ [ β1 , ∞),
Z ∞ y=x( β1 −t)
Z −∞
1 α−1 −x( β1 −t) 1
GX (t) = α x e = y α−1 e−y dy
β Γ(α) 0 (1 − βt)α Γ(α) 0

−∞
y α −∞
Z
1 1
≥ y α−1 dy = = ∞.
(1 − βt)α Γ(α) (1 − βt)α Γ(α) α 0

0

Prin urmare, pentru t ∈ [ β1 , ∞), funcţia generatoare de momente nu este definită ı̂ntrucât
integrala este divergentă.

Propoziţia 4.8.4. (proprietate de stabilitate) Suma a două variabile aleatoare independente


distribuite γ(α1 , β), respectiv γ(α2 , β), este o variabilă aleatoare distribuită γ(α1 + α2 , β).

Demonstraţie. Fie X1 ∼ γ(α1 , β), X2 ∼ γ(α2 , β). Pentru t ∈ [0, β1 ] avem

indep
GX1 +X2 (t) = M [et(X1 +X2 ) ] = M [etX1 etX2 ] = M [etX1 ]M [etX2 ] = GX1 (t)GX2 (t)

= (1 − βt)−α1 (1 − βt)−α2 = (1 − βt)−(α1 +α2 )


Prin urmare, X1 + X2 ∼ γ(α1 + α2 , β). q.e.d.

e) Distribuţia beta - Beta(α, β), α, β > 0


Variabila aleatoare X este distribuită beta de parametrii α şi β dacă densitatea sa are forma

 1 xα−1 (1 − x)β−1 , dacă x ∈ [0, 1]


fX (x) = B(α, β) .
0 , ı̂n rest

Z 1
Γ(α)Γ(β)
unde B(α, β) := tα−1 (1 − t)β−1 dt = pentru α, β > 0 (funcţia beta).
0 Γ(α + β)

Figura 28: Beta(2,4) pe intervalul [0,1]

86
fX este o funcţie de densitate ı̂ntrucât fX (x) ≥ 0 pentru orice x ∈ [0, 1], iar
Z ∞ Z 1
1
fX (x)dx = xα−1 (1 − x)β−1 dx = 1.
−∞ B(α, β) 0

Media şi dispersia variabilei aleatoare având distribuţia beta


Folosind Remarca 4.8.3 obţinem

Z ∞ Z 1
1 B(α + 1, β) α
M [X] = xfX (x)dx = xα (1 − x)β−1 dx = = .
−∞ B(α, β) 0 B(α, β) α+β
Z ∞ Z 1
2 2 1
M [X ] = x fX (x)dx xα+1 (1 − x)β−1 dx
−∞ B(α, β) 0

B(α + 2, β) α(α + 1)
= = .
B(α, β) (α + β + 2)(α + β + 1)
Prin urmare,
αβ
D2 [X] = M [X 2 ] − M [X]2 = .
(α + β)2 (α + β + 1)
Funcţia generatoare de momente a variabilei aleatoare având distribuţia beta
Pentru t ∈ R,
Z 1 Z 1
tX tx 1
GX (t) = M [e ] = e fX (x)dx = etx xα (1 − x)β−1 dx
0 B(α, β) 0
Z 1X
1 (tx)n α X B(α + n, β) tn
= x (1 − x)β−1 dx =
B(α, β) 0 n≥0 n! n≥0
B(α, β) n!
n−1
X (α + n − 1) . . . (α + 1) tn X Y α + k tn
= = ( ) .
n≥0
(α + β + n − 1) . . . (α + β + 1) n! n≥0 k=1 α + β + k n!

f ) Distribuţia χ2 - χ2 (r), r > 0


Variabila aleatoare X este distribuită χ2 cu r grade de libertate dacă densitatea sa are forma

 r 1 x r2 −1 e− x2 , dacă x ≥ 0

r
fX (x) = 2 2 Γ( 2 ) ,
0 , ı̂n rest

unde Γ este funcţia gamma.

87
Figura 29: χ2 (2) pe intervalul [0,5]

Distribuţia χ2 este un caz particular al distribuţiei gamma, ı̂ntrucât


r
γ( , 2) = χ2 (r).
2
Media şi dispersia variabilei aleatoare având distribuţia χ2

M [X] = r, D2 [X] = 2r.

Funcţia generatoare de momente a variabilei aleatoare având distribuţia χ2


r 1
GX (t) = M [etX ] = (1 − 2t)− 2 , pentru t ∈ [0, ).
2
1
Pentru t ∈ [ , ∞), funcţia generatoare de momente nu este definită.
2

Propoziţia 4.8.5. (proprietate de stabilitate) Suma a două variabile aleatoare independente


distribuite χ2 (r), respectiv χ2 (p), este o variabilă aleatoare distribuită χ2 (r + p).

Demonstraţie. Rezultatul este o consecinţa imediată a Propoziţiei 4.8.4. q.e.d.

Propoziţia 4.8.6. Fie X1 , X2 , . . . , Xn variabile aleatoare normale standard independente.


Atunci
X12 + X22 + . . . + Xn2 ∼ χ(n).

Demonstraţie. Fie X ∼ N (0, 1). Atunci, pentru X ≥ 0 avem că densitatea lui X 2 este

√ √
Z x
d d d 1 t2
fX 2 (x) = P (X 2 ≤ x) = P (− x ≤ X ≤ x) = √
√ e− 2 dt
dx dx dx − x 2π
1 √ 2
x √ 1 √
(− x)2 √ 1 1 x 1 1 x
= √ e− 2 ( x)0 − √ e− 2 (− x)0 = √ √ e− 2 = √ x− 2 e− 2 .
2π 2π 2π x 2π

88
1 √
Prin urmare, folosind faptul că Γ( ) = π (exerciţiu), obţinem că X 2 ∼ γ( 12 , 2).
2
Aplicând Propoziţia 4.8.4 şi folosind ipoteza X1 , X2 , . . . , Xn ∼ N (0, 1) rezultă că X12 + X22 +
. . . + Xn2 ∼ γ( n2 , 2) = χ2 (n). q.e.d.

g) Distribuţia T /student - T (r), r > 0


Variabila aleatoare X este distribuită T /student cu r grade de libertate dacă densitatea sa
are forma
1 x2 − r+1
fX (x) = √ (1 + ) 2 , x ∈ R.
rB( 12 , 2r ) r
Z 1
Γ(α)Γ(β)
unde B(α, β) := tα−1 (1 − t)β−1 dt = pentru α, β > 0 (funcţia beta).
0 Γ(α + β)

Figura 30: T (0.4) pe intervalul [-5,5]

fX este o funcţie de densitate ı̂ntrucât fX (x) ≥ 0 pentru orice x ∈ [0, ∞), iar
Z ∞ Z ∞ t= √xr
Z ∞
1 1 2 1
fX (x)dx = √ 1 r x2 r+1
dx = 1 r r+1 dt
−∞ rB( 2 , 2 ) −∞ (1 + r ) 2 B( 2 , 2 ) 0 (1 + t2 ) 2

t2 ∞ ∞
1−u 1
Z Z
u=
1+t2 1 r+1
−2 1 r 1
= 1 r (1 − u) 2 ( ) 2 dt = 1 r (1 − u) 2 −1 u 2 −1 dt = 1.
B( 2 , 2 ) 0 u B( 2 , 2 ) 0

Media şi dispersia variabilei aleatoare având distribuţia T /student


Z ∞ Z ∞
1 x
M [X] = xfX (x)dx = √ 1 r r+1 dx = 0.
−∞ rB( 2 , 2 ) −∞ (1 + xr2 ) 2

∞ ∞
x2
Z Z
2 2 2 1 2 2
D [X] = M [X ] − M [X] = M [X ] = x fX (x)dx = √ dx
−∞ rB( 21 , 2r ) −∞ (1 + x2 r+1
r
) 2
∞ t2 ∞
t= √xr t2 B( 32 , 2r − 1)
Z Z
2r u=
1+t2 r 1 r−4
= dt = u (1 − u)
2 2 dt = r .
B( 12 , 2r ) 1 r
B( 12 , 2r )
r+1
0 (1 + t2 ) 2 B( 2 , 2 ) 0

89
Remarcă. Folosind aceeaşi tehnică de calcul ca mai sus se poate arăta că dacă k < r atunci:

k+1 r−k
r k2 B( 2 , 2 ) , dacă k par

M [X k ] = B( 12 , 2r ) .

0 , dacă k impar

Funcţia generatoare de momente a variabilei aleatoare având distribuţia T /student

Întrucât se observă din remarca precedentă faptul că variabila aleatoare distribuită T /Student
cu r grade de libertate nu are moment de ordin k ≥ r, rezultă că aceasta nu are funcţie gene-
ratoare de momente.
Propoziţia 4.8.7. Fie X ∼ N (0, 1) şi Y ∼ χ2 (r) două variabile aleatoare independente.
X
Atunci variabila aleatoare T = Y ∼ T (r).
r
Demonstraţia acestei propoziţii rămâne ca exerciţiu, metoda de calcul fiind similară cu cea
folosită anterior pentru determinarea densităţii produsului a două variabile aleatoare continue.

h) Distribuţia Fisher-Snedecor - F (r, s), r, s > 0


Variabila aleatoare X este distribuită Fisher-Snedecor cu r, respectiv s, grade de libertate
dacă densitatea sa are forma
 r s r
 r2 s2 x 2 −1
, dacă x ≥ 0

fX (x) = B( 2r , 2s ) (rx + s) 2
r+s
.

0 , ı̂n rest
unde B este funcţia beta.

Figura 31: F (10,20) pe intervalul [0,5]

fX este o funcţie de densitate ı̂ntrucât fX (x) ≥ 0 pentru orice x ∈ [0, ∞), iar
Z ∞ r s Z ∞ r r Z ∞ r
r2 s2 x 2 −1 ( rs ) 2 x 2 −1
fX (x)dx = dx = dx
−∞ B( 2r , 2s ) 0 (rx + s) r+s
2 B( 2r , 2s ) 0 ( r x + 1) r+s
2
s

90
Z ∞ t
Z 1
t= rs x1 r
−1 − r+s
v= 1+t 1 r s
= r s t 2 (1 + t) 2 dt = r s v 2 −1 (1 − v) 2 −1 dv = 1.
B( 2 , 2 ) 0 B( 2 , 2 ) 0

Media şi dispersia variabilei aleatoare având distribuţia Fisher-Snedecor


Dacă s > 2 avem:
Z ∞ r s Z ∞ r
r2 s2 x 2 −1
M [X] = xfX (x)dx = x r+s dx =
−∞ B( 2r , 2s ) 0 (rx + s) 2
r Z ∞ r Z ∞
( rs ) 2 x2 t= rs x 1 r r+s
= r s r+s dx = r s t 2 (1 + t)− 2 dt
B( 2 , 2 ) 0 ( x + 1) 2
r B( 2 , 2 ) 0
s
s
s B( 2r + 1, 2s − 1)
t
Z 1
v= 1+t r s
r 2 (1 − v) 2
−2
= v dv = .
B( 2r , 2s ) 0 r B( 2r , 2s )
Dacă s > 4 avem:
∞ r s Z ∞ r
x 2 −1
Z
2 2 r2 s2 2
M [X ] = x fX (x)dx = x r+s dx =
−∞ B( 2r , 2s ) 0 (rx + s) 2
r Z ∞ r Z ∞
( rs ) 2 x 2 +1 t= rs x 1 r
+1 − r+s
= r s r+s dx = r s t 2 (1 + t) 2 dt
B( 2 , 2 ) 0 ( r x + 1) 2 B( 2 , 2 ) 0
s
s 2
s 2 B( 2r + 2, 2s − 2)
Z 1
v= 1+tt
(r) r
+1 s
−3
= v (1 − v) dv = ( )
2 2 .
B( 2r , 2s ) 0 r B( 2r , 2s )

2 s 2 B( 2r + 2, 2s − 2) B 2 ( 2r + 1, 2s − 1)
2 2
D [X] = M [X ] − M [X] = ( ) ( − ).
r B( 2r , 2s ) B 2 ( 2r , 2s )
s
Remarcă. Folosind aceeaşi tehnică de calcul ca mai sus se poate arăta că dacă k < 2
atunci:

s B( r + k, s − k)
M [X k ] = ( )k 2 r 2s .
r B( 2 , 2 )

Funcţia generatoare de momente a variabilei aleatoare având distribuţia Fisher-Snedecor

Întrucât se observă din remarca precedentă faptul că variabila aleatoare distribuită Fisher-
s
Snedecor cu r, respectiv s, grade de libertate nu are moment de ordin k ≥ , rezultă că aceasta
r
nu are funcţie generatoare de momente.

Propoziţia 4.8.8. Fie X ∼ χ(r) şi Y ∼ χ2 (s) două variabile aleatoare independente. Atunci
X Y
variabila aleatoare F = · ∼ F (r, s).
s r
Demonstraţia acestei propoziţii rămâne ca exerciţiu, metoda de calcul fiind similară cu cea
folosită anterior pentru determinarea densităţii produsului a două variabile aleatoare continue.

91
4.9 Principalele distribuţii multidimensionale

a) Distribuţia multinomială - M ultinomial(n, θ), n ∈ N∗ , θ ∈ Rp , p ∈ N∗ , p ≥ 2, θi ≥ 0


p
X
pentru orice i ∈ {1, . . . , p}, θi = 1.
i=1
Vectorul aleator X = (X1 , . . . , Xp ) este distribuit multinomial de parametrii (N, θ) dacă
densitatea sa are forma
 p
n! x
X
θ1x1 . . . θp p , pentru

 xi = n
fX (x) = x1 ! . . . xp ! i=1
, x = (x1 , . . . , xp ) ∈ Np .

0 , ı̂n rest

X X X
În continuare vom folosi ı̂n loc de ... notaţia prescurtată .
x1 xp x1 ,...,xp
fX este o funcţie de densitate ı̂ntrucât fX (x) ≥ 0 pentru orice x = (x1 , . . . , xp ) ∈ Np , iar
aplicând formula multinomială avem că:
X X n!
fX (x1 , . . . , xp ) = θx1 . . . θpxp = (θ1 + . . . + θp )n = 1.
x1 ,...,xp x1 ,...,xp
x 1 ! . . . xp ! 1

Distribuţia multinomială este o generalizare multidimensională a distribuţiei binomiale, prin


intermediul acesteia fiind modelate experimente de tipul celui prezentat ı̂n continuare. Să
presupunem că avem un experiment format din n ≥ 1 ı̂ncercări independente, fiecare ı̂ncercare
producând exact p ≥ 2 posibile rezultate {A1 , . . . , Ap }, probabilitatea apariţiei rezultatului
Ai fiind θi ı̂n cadrul fiecărei ı̂ncercări. Considerăm variabilele aleatoare (Xi )i=1,p , unde Xi
reprezintă numărul de ı̂ncercări ı̂n care Ai a apărut. Atunci vectorul aleator X = (X1 , . . . , Xp )
se spune că este distribuit multinomial de paramterii N şi θ = (θ1 , . . . , θp ). Remarcăm că
Xi ∼ Bin(n, θi ) pentru orice i ∈ {1, . . . , p}.
Spre exemplu, distribuţia multinomială modelează n aruncări independente ale unui zar cu
p-feţe.

Media variabilei aleatoare distribuită multidimensional


Derivând după θi relaţia
X n!
1 = (θ1 + . . . + θp )n = (t1 , . . . , tp ) θt1 . . . θptp
t1 ,...,tp
t1 ! . . . tp ! 1

şi apoi multiplicând rezultatul cu θi obţinem


X n!
N θi = ti θt1 . . . θptp
t1 ,...,tp
t1 ! . . . tp ! 1

Prin urmare,
X X n!
M [X] = (t1 , . . . , tp )fX (t1 , . . . , tp ) = (t1 , . . . , tp ) θt1 . . . θptp =
t1 ,...,tp t1 ,...,tp
t1 ! . . . tp ! 1

92
X n! X n!
( t1 θ1t1 . . . θptp , . . . , tp θ1t1 . . . θptp ) = (N θ1 , . . . , N θp ) = N θ.
t1 ,...,tp
t1 ! . . . tp ! t ,...,t
t1 ! . . . tp !
1 p

Similar pot fi calculate toate momentele variabilei aleatoare distribuite multinomial.

b) Distribuţia Dirichlet - Dir(p, α), p ≥ 2, α = (α1 , . . . , αp , αp+1 ) ∈ (0, ∞)p+1 .


Vectorul aleator X = (X1 , . . . , Xp ) este distribuit Dirichlet de parametrii (p, α) dacă densi-
tatea sa are forma
p+1

1 α −1 αp+1 −1
X
xα1 1 −1 . . . xp p xp+1

 , pentru xi = 1
fX (x) = B(α1 , . . . , αp , αp+1 ) i=1
,

0 , ı̂n rest

Γ(α1 ) . . . Γ(αp )Γ(αp+1 )


x = (x1 , . . . , xp ) ∈ [0, 1]p , unde B(α1 , . . . , αp , αp+1 ) = este funcţia beta
Γ(α1 + . . . + αp+1 )
generalizată, definită prin:
Z 1 Z 1
B(α1 , . . . , αp , αp+1 ) = ... xα1 1 −1 . . . xαp p −1 (1 − (x1 + . . . + xp ))αp+1 −1 dx1 . . . dxp .
0 0

fX este o funcţie de densitate ı̂ntrucât fX (x) ≥ 0 pentru orice x = (x1 , . . . , xp ) ∈ [0, 1]p , iar
din definiţia funcţiei B avem că
Z 1 Z 1
... fX (x1 , . . . , xp , xp+1 )dx1 . . . dxp = 1.
0 0

Distribuţia Dirichlet este o generalizare multidimensională a distribuţiei beta. Mai precis,


considerăm variabile aleatoare Y1 , . . . , Yp+1 independente, Yi ∼ γ(αi , β) pentru i ∈ {1, . . . , p}
Yi
şi definim variabilele aleatoare Xi := , i ∈ 1, p. Atunci vectorul aleator
Y1 + . . . + Xp+1
X = (X1 , . . . , Xp ) ∼ Dir(p, α), unde α = (α1 , . . . , αp , αp+1 ).

Media variabilei aleatoare distribuită Dirichlet


Z 1 Z 1
M [X] = ... (t1 , . . . , tp )fX (t1 , . . . , tp )dt1 . . . dtp
0 0
Z 1 Z 1
Γ(α1 + . . . + αp+1 )
= ... (t1 , . . . , tp )tα1 1 −1 . . . tαp p −1 tp+1 αp+1 −1 dt1 . . . dtp .
Γ(α1 ) . . . Γ(αp )Γ(αp+1 ) 0 0
Procedând ca la distribuţia multidimensională ne interesează să determinăm componentele
vectorului medie, mai precis pentru fiecare i ∈ {1, . . . , p} evaluăm:
Z 1 Z 1
Γ(α1 + . . . + αp+1 )
... ti tα1 1 −1 . . . tαp p −1 tp+1 αp+1 −1 dt1 . . . dtp ,
Γ(α1 ) . . . Γ(αp )Γ(αp+1 ) 0 0

adică termenul
Z 1 Z 1
Γ(α1 + . . . + αp+1 ) Y
... tαi i tαk k −1 dt1 . . . dtp ,
Γ(α1 ) . . . Γ(αp )Γ(αp+1 ) 0 0 1≤i≤k,k6=i

93
Folosind proprietatea funcţiei gamma: Γ(x + 1) = xΓ(x) şi schimbând variabilele prin
βi = αi + 1, respectiv βj = αj pentru orice j 6= i, obţinem că termenul anterior este egal cu
Z 1 Z 1
αi Γ(β1 + . . . + βp+1 ) Y βk −1
... t dt1 . . . dtp .
α1 + . . . + αp+1 0 0 Γ(β1 ) . . . Γ(βp )Γ(βp+1 ) 1≤i≤k k

αi
= .
α1 + . . . + αp+1
Prin urmare,
α
M [X] = .
α1 + . . . + αp+1

c) Distribuţia normală multivariată - Np (µ, Σ), µ = (µ1 , . . . , µp )t ∈ Rp , p ∈ N∗ , p ≥ 2,


Σ ∈ Mp,p (R) o matrice nesingulară, pozitiv definită: Σ = Σt , xt Σx > 0 pentru orice x 6= 0.
Vectorul aleator X = (X1 , . . . , Xp ) este distribuit normal multivariat de parametrii (µ, Σ)
dacă densitatea sa are forma
s
1 1
fX (x) = p
exp{− (x − µ)t Σ−1 (x − µ)}, x ∈ Rp ,
det(Σ)(2π) 2

unde am notat cu ()t transpusa matricei.


Dacă notăm cu Σ−1 = (σij )1≤i,j≤p atunci σij = σji ,
X
σij (xi − µi )(xj − µj ) ≥ 0, pentru orice (x1 , . . . , xp ) 6= 0,
1≤i,j≤p

şi s
1 1 X
fX (x) = p
exp{− σij (xi − µi )(xj − µj )}, x ∈ Rp ,
det(Σ)(2π) 2 1≤i≤p

Arătăm că fX este o funcţie de densitate şi remarcăm că fX (x) ≥ 0 pentru orice x =
(x1 , . . . , xp ) ∈ Rp .
Întrucât matricea Σ este pozitiv definită, există o matrice A astfel ı̂ncât At ΣA = Ip , unde
Ip este matricea unitate de ordin p . Considerăm transformarea liniară

x − µ = Ay, unde y = (y1 , . . . , yp )t .

Astfel, forma pătratică devine:

(x − µ)t Σ−1 (x − µ) = (Ay)0 Σ(Ay) = y 0 A0 ΣAy = y 0 Ip y = y 0 y,

iar determinantul transformării este det(A) = 1.


Prin urmare,

Z s Z 1 t
1 − y y
fX (x1 , . . . , xp )dx1 . . . dxp = | det(A)|e 2 dy1 . . . dyp
Rp det(Σ)(2π)p Rp

94
X yi2
s −
2
Z
1
= | det(A)|e1≤i≤p dy1 . . . dyp
det(Σ)(2π)p Rp
s y2
1 Y Z − i
= | det(A)| e 2 dyi
det(Σ)(2π)p 1≤i≤p R
s
1 p p
= | det(A)| (2π)p = det(Σ)−1 | det(A)| = 1.
det(Σ)(2π)p
Prin considerarea determinatului, ultima egalitate este o consecinţă imediată a relaţiei At ΣA =
Ip .

Distribuţia normală multivariată este generalizarea distribuţiei normale 1-dimensionale.


Mai precis, considerăm variabile aleatoare Y1 , . . . , Yp+1 independente, Yi ∼ γ(αi , β) pentru
Yi
i ∈ {1, . . . , p} şi definim variabilele aleatoare Xi := , i ∈ 1, p. Atunci vectorul
Y1 + . . . + Xp+1
aleator X = (X1 , . . . , Xp ) ∼ Dir(p, α), unde α = (α1 , . . . , αp , αp+1 ).

Media variabilei aleatoare normală multivariată


Procedând ca la distribuţia multidimensională ne interesează să determinăm componentele
vectorului medie. Similar calculelor anterioare, pentru fiecare i ∈ {1, . . . , p} avem:
Z
M [X] = xi fX (x1 , . . . , xp )dx1 . . . dxp
Rp

s Z yj2
1 Y −
= | det(A)| (yi + µi ) e 2 dy1 . . . dyp
det(Σ)(2π)p Rp 1≤j≤p
s Z yj2 Z yi2
1 Y − −
= | det(A)|( yi e 2 dyj )( yi e 2 dyi ) + µi = 0 + µi = µi .
det(Σ)(2π)p 1≤j≤p,j6=i R R

Prin urmare, M [X] = (µ1 , . . . , µp ) = µ.

4.10 Probleme propuse


Problema 1. Arătaţi că dacă densitatea de repartiţie a unei variabile aleatoare X este o
funcţie simetrică faţă de dreapta x = α atunci M [X] = α.

Problema 2. Folosind funcţia generatoare de momente, determinaţi media şi dispersia vari-
abilelor aleatoare aferente principalelor distribuţii continue.

Problema 3. (Lipsa de memorie a variabilei exponenţiale) Dacă X este o variabilă


aleatoare exponenţială, arătaţi că pentru orice s, t ≥ 0 avem
P (X > s + t | X > s) = P (X > t).

95
Problema 4. Presupunem că timpul petrecut la ghişeu de o persoană care doreşte să ı̂şi
plătească impozitele este distribuit exponenţial de medie de 10 minute. Determinaţi probabi-
litatea ca:
a) o persoană să aştepte la coadă mai mult de 15 minute;
b) o persoană să aştepte la coadă mai mult de 15 minute, ştiind că a aşteptat deja 10 minute.

Problema 5. Fie X o variabilă aleatoare cu valori pozitive având proprietatea că

P (X ∈ (t, t + ∆t] | X > t) = λ∆t + o(∆t), pentru orice t, ∆t ≥ 0,

o(∆t)
unde λ > 0 şi lim = 0. Atunci X ∼ Exp(λ).
t→0 α(t)

Problema 6. Fie X1 , X2 , . . . , Xn ∼ Exp(λ) şi Y := max Xi , Z := min Xi . Cum sunt dis-


1≤i≤n 1≤i≤n
tribuite Y şi Z?

Problema 7. Determinaţi raza cercului R cu centrul ı̂n origine astfel ı̂ncât probabilitatea
P ((X, Y ) ∈ C(0, R)) = 0.95, unde X, Y ∼ N (0, 1) independente.

Problema 8. Fie X o variabilă aleatoare şi ϕ o transformare inversabilă de clasă C 1 (x = ϕ(y)).


Considerăm variabila aleatoare Y = ϕ−1 (X) şi presupunem că aceasta admite medie. Atunci
următoarea formulă are loc: Z
M [Y ] = ϕ−1 (x)fX (x)dx.
R

Problema 9. Fie X o variabilă aleatoare pe (Ω, F, P ) pentru care funcţia de repartiţie FX


ia valori nule pe (−∞, 0]. Să se arate că X este repartizată exponenţial dacă şi numai dacă
pentru orice x, y ∈ (0, ∞) avem

FX (x + y) − FX (y) = FX (x)(1 − FX (y))

4.11 Simulări cu Mathematica


Problema 1. Scrieţi rutinele corespunzătoare graficelor realizate ı̂n secţiunea 3.7.

a) Distribuţia Uniformă(0.1) pe intervalul [0, 1]


Plot[Evaluate@Table[PDF[UniformDistribution[{0, max}], x],
{max, {1}}], {x, 0, 1}]

b) Distribuţia Exponenţială(2) pe intervalul [0, 3]


Plot[Evaluate@Table[PDF[ExponentialDistribution[λ], x],
{λ], {2}}], {x, 0, 3}]

c) Distribuţia Gaussiană(0,1) pe intervalul [−5, 5]


Plot[{PDF[NormalDistribution[0, 1], x]}, {x, -5, 5}]

96
d) Distribuţia Gamma(4,2) pe intervalul [0, 20]
Plot[Evaluate@Table[PDF[GammaDistribution[α, 2], x],
{α, {4}}], {x, 0, 20}]

e) Distribuţia Beta(2,4) pe intervalul [0, 1]


de completat

f) Distribuţia χ2 (2) pe intervalul [0, 5]


Plot[Evaluate@Table[PDF[ChiSquareDistribution[ν], x],
{ν, {2}}], {x, 0, 5}]

g) Distribuţia T/student(0.4) pe intervalul [−5, 5]


Plot[Evaluate@Table[PDF[StudentTDistribution[ν]], x],
{ν, {0.3}}], {x, -5, 5}]

h) Distribuţia Fisher-Snedecor(10,20) pe intervalul [0, 5]


Plot[Evaluate@Table[PDF[FRatioDistribution[10, m], x],
{m, 20}}], {x, 0, 5}

Problema 2. Se consideră o variabilă aleatoare X având densitatea de repartiţie


(
2x + 61 , dacă x ∈ {2, 3, 4}
FX (x) = .
0 ,ı̂n rest

(i) Reprezentaţi grafic denistatea de probabilitate şi funcţia de repartitţie.


(ii) Calculaţi M [X], D2 [X], P (X ≤ 3).

Răspuns.
(i) d = ProbabilityDistribution[ Piecewise[{{2 x + 1/6,
x == 2 || x == 3 || x == 4 }}, 0], {x, 0, 15, 1}]
Grid[{{DiscretePlot[Evaluate[PDF[d, x]], {x, 0, 15},
ExtentSize -> 0.5, PlotStyle -> ColorData[1, 1]],
DiscretePlot[Evaluate[CDF[d, x]], {x, 0, 15},
ExtentSize -> Right, PlotStyle -> ColorData[1, 1]]}}]

97
Figura 32: Densitatea de repartiţie

Figura 33: Funcţia de repartiţie

M [X] = 59.5: Mean[d] // N.

D2 [X]=58617: Variance[d] // N.

P (X ≤ 3) = 10.3333: Probability[x ≤ 3 , x ≈ d] // N.

Problema 3. Determinaţi primele 10 momente iniţiale ale distribuţiei Poisson.

Răspuns. Vom determina funcţia caracteristică şi vom folosi Propoziţia 4.7.1 (vi).

Phi = CharacteristicFunction[PoissonDistribution[µ], t]
Table[Limit[D[cfun, {t, n}], t → 0]/Iˆn, {n, 10}]

µ,
µ (1 + µ),
µ (1 + 3 µ + µ2 ),

98
µ (1 + 7 µ + 6 µ2 + µ3 ),
µ (1 + 15 µ + 25 µ2 + 10 µ3 + µ4 ),
µ (1 + 31 µ + 90 µ2 + 65 µ3 + 15 µ4 + µ5 ),
µ (1 + 63 µ + 301 µ2 + 350 µ3 + 140 µ4 + 21 µ5 + µ6 ),
µ (1 + 127 µ + 966 µ2 + 1701 µ3 + 1050 µ4 + 266 µ5 + 28 µ6 + µ7 ),
µ (1 + 255 µ + 3025 µ2 + 7770 µ3 + 6951 µ4 + 2646 µ5 + 462 µ6
+ 36 µ7 + µ8 ),
µ (1 + 511 µ + 9330 µ2 + 34105 µ3 + 42525 µ4 + 22827 µ5 + 5880 µ6
+ 750 µ7 + 45 µ8 + µ9 )

Problema 4. O companie de panificaţie cumpără făină, pentru utilizarea ı̂n procesul de


producţie, ı̂n saci de 50 kg. Dacă greutatea reală a unui sac de făină este distribuită normal
de medie 50 kg şi varianţă 0.25 kg să se determine probabilitatea ca un sac să cântărească cel
puţin 49 kg, 49.5 kg, respectiv 49.9 kg.

Răspuns.

Probability[x > 49, x ≈ NormalDistribution[50, Sqrt[0.25]]] 0.97725

Probability[x > 49.5, x ≈ NormalDistribution[50, Sqrt[0.25]]] 0.841345

Probability[x > 49.9, x ≈ NormalDistribution[50, Sqrt[0.25]]] 0.57926

Ilustăm ı̂n continuare distribuţia probabilităţilor funcţie de greutatea sacului.

Clear[P]
P[n ] := Probability[x > n, x ≈ NormalDistribution[50,
Sqrt[0.25]]]
date = Table[{40 + contor/10, P[40 + contor/10]}, {contor, 0, 200}]
ListPlot[date, PlotRange -> {{40, 60}, {0, 1}}, AxesLabel ->
{"Greutate sac", "Probabilitate"}]

Figura 34: Greutate sac/Probabilitate

99
Problema 5. Procesul de execuţie a unui produs presupune tranzitarea a 3 etape. După
parcurgerea ultimei etape produsul se consideră realizat. Timpul petrecut de produs ı̂n fiecare
dintre etape este distribuit uniform pe intervalul (0, 10).
(i) Să se determine densitatea de repartiţie şi funcţia de repartiţie.
(ii) Să se determine distribuţia timpului de realizare a produsului şi media timpului de realizare.
(iii) Aflaţi probabilitatea ca produsul să fie realizat după 20 de ore.
(iv) Să se simuleze timpul de realizare independentă a 30 de produse.

Răspuns.
(i) USD = UniformSumDistribution[3, {0, 10}];

PDF[USD,x]


 0 , dacă x < 0
2
 x


, dacă 0 ≤ x < 10


 6000


x2 − 3(x − 10)2
fX (x) = , dacă 10 ≤ x < 20 .
 2000
(30 − x)2




 , dacă 20 ≤ x < 30
 2000



0 ,ı̂n rest
CDF[USD,x]

0 3
 , dacă x < 0
x


, dacă 0 ≤ x < 10



 20003


−2x + 90x2 − 900x + 1500
fX (x) = , dacă 10 ≤ x < 20 .
 6000
(30 − x)3



1 −
 , dacă 20 ≤ x < 30
6000



1

,ı̂n rest
(ii) Plot[PDF[USD, x], {x, 0, 30}, Exclusions -> None, Filling ->
Axis] Mean[USD]
15

100
Figura 35: Distribuţia timpului de realizare a produsului

(iii) Probability[x >= 20, x ≈ USD] // N 0.166667

(iv) ListPlot[RandomVariate[USD, 30], 0, Mean[USD], 30, Mean[USD]


Joined -> False, True, Filling -> Axis, AxesOrigin -> 0, 0]

Figura 36: Timpul de realizare a 30 de produse

Problema 6. (Problema ı̂ntâlnirii) Două persoane ı̂şi dau ı̂ntâlnire ı̂ntr-un anume loc ı̂n
intervalul orar 8:00-8:30 pm. Ambele persoane ajung la un moment de timp distribuit uniform
ı̂n intervalul de timp fixat, independent unul de celălalt, aşteptând cealaltă persoană timp de
5 minute. Determinaţi probabilitatea ca persoanele să se ı̂ntâlnească şi ilustraţi grafic experi-
mentul.

Răspuns. Dacă X, Y sunt variabilele aleatoare care cuantifică momentele de timp la care
cele 2 persoane ajung, atunci X, Y ∈ [0, 30]. Condiţia ca persoanele să se ı̂ntâlnească este:
|X − Y | ≤ 5.

Probability[Abs[x - y] <= 5, x, y ≈

101
11
ProductDistribution[{UniformDistribution[{0, 30}], 2}]]
36
RegionPlot[Abs[x - y] <= 5, {x, 0, 30}, {y, 0, 30}]

Figura 37: Problema ı̂ntâlnirii

Problema 7. Să se arate că distribuţia χ2 este o transformare a distribuţiei uniforme.


(R. Transformarea este −2 log[u], u ≈ U ([0, 1]))

Răspuns.
UniformDistr = TransformedDistribution[-2 Log[u], u ≈
UniformDistribution[{0, 1}]];
PDF[UniformDistr, x] // FullSimplify[#, x ∈ Reals] &
PDF[ChiSquareDistribution[2], x]
FullSimplify[% - %%, x > 0]
0

102
5 Legea numerelor mari şi teoreme limită centrală
În această secţiune ne propunem să prezentăm câteva rezultate fundamentale despre comporta-
mentul asimptotic al şirurilor de variabile aleatoare independente. Pentru aceasta avem nevoie
de următorul instrument, care de fapt e un rezultat celebru ı̂n teoria probabilităţilor. El oferă
estimări ı̂n probabilitate pentru abaterea unei variabile aleatoare de la media ei.
Teoremă 5.0.1. (Inegalitatea lui Cebı̂şev şi regula celor 3-σ) Fie (Ω, F, P ) un spaţiu de pro-
babilitate şi X o variabilă aleatoare continuă care admite medie şi dipsersie. Atunci
D2 [X]
P ({|X − M [X]| ≥ }) ≤ , pentru orice  > 0.
2
8
În particular, P (|X − M [X]| < 3D2 [X]) ≥ .
9
Demonstraţie. Fie  > 0. Folosind definiţia dispersiei şi Remarca 4.1.5, găsim minorarea
convenabilă astfel:
Z
D [X] = M [(X − M [X]) ] = (x − m)2 fX (x)dx =
2 2
R
Z Z Z
2 2 2
(x − m) fX (x)dx + (x − m) fX (x)dx ≥  fX (x)dx
|x−M [X]|< |x−M [X]|≥ |x−M [X]|≥

= 2 P (|X − M [X]| ≥ ).


Folosind punctul (i) obţinem:
D2 [X] 8
P (|X − M [X]| < 3D2 [X]) = 1 − P (|X − M [X]| ≥ 3D2 [X]) ≥ 1 − 2
= .
9D [X] 9
q.e.d.

5.1 Legea numerelor mari


În cele ce urmează (Ω, F, P ) este un spaţiu de probabilitate şi (Xn )n∈N∗ un şir de variabile
aleatoare pe acest spaţiu. Vom presupune, fără a restrânge generalitatea că, Xn admite densi-
tate pentru orice n ∈ N∗ .

5.1.1 Legea slabă a numerelor mari


Definiţie 5.1.1. Fie X o variabilă aleatoare pe (Ω, F, P ). Spunem că şirul (Xn )n∈N∗ converge
ı̂n probabilitate către variabila aletoare X dacă pentru orice  > 0 avem
lim P (|Xn − X| > ) = 0.
n→∞
p
Vom nota convergenţa ı̂n probabilitate prin Xn −−−→ X.
n→∞
Reamintim că se foloseşte notaţia {|Xn − X| > } ca o prescurtare pentru mulţimea
{ω ∈ Ω| |Xn (ω) − X(ω)| > }.

103
Remarcă 5.1.2. Limita unui şir de variabile aleatoare convergent ı̂n probabilitate este unică
aproape sigur (adică orice două limite diferă cel mult pe o muţime având probabilitate nulă).

Demonstraţie.
p p
Fie X1 , X2 variabile aleatoare astfel ı̂ncât Xn −−−→ X1 şi Xn −−−→ X2 . Pentru  > 0 avem
n→∞ n→∞

0 ≤ P (|X1 − X2 | > ) ≤ P (|X1 − Xn | + |Xn − X2 | > )

≤ P (|X1 − Xn | > ) + P (|Xn − X2 | > ) −−−→ 0.


n→∞

Prin urmare, P (X1 6= X2 ) = 0. q.e.d.

Considerăm şirul de variabile aleatoare (X n )n∈N∗ a mediilor aritmetice asociate lui (Xn )n∈N∗ ,
dat prin
n
1X
Xn = Xk , pentru orice n ∈ N∗ .
n k=1

Definiţie 5.1.3. Spunem că şirul de variabile aleatoare (Xn )n∈N∗ satisface legea slabă a
numerelor mari, dacă există un şir de constante (an )n∈N∗ astfel ı̂ncât şirul (X n − an )n∈N
satisface condiţia
p
X n − an −−−→ 0.
n→∞

Propoziţia 5.1.4. (A.A.Markov) Fie (Xn )n∈N∗ un şir de variabile aleatoare care admit medie
şi dispersie, şi pentru care ı̂n plus este satisfăcută condiţia
n
2 1 2X
(5.1) lim D [X n ] = lim 2 D [ Xk ] = 0.
n→∞ n→∞ n
k=1

Atunci (X n )n∈N∗ satisface legea slabă a numerelor mari.


În particular, dacă (Xn )n∈N∗ este un şir de variabile aleatoare independente, atunci condiţia
(5.1) poate fi ı̂nlocuită cu una din următoarele:
n
1 X 2
lim D [Xk ] = 0 sau D2 [Xn ] ≤ δ < ∞ pentru orice n ∈ N∗ .
n→∞ n2
k=1

Demonstraţie. Întrucât Xn admite medie şi dispersie pentru orice n ∈ N∗ rezultă că aceeaşi
proprietate o moşteneşte şi Xn . Utilizând inegalitatea lui Cebı̂şev avem că pentru orice  > 0

D2 [X n ]
P (|Xn − M [X n ]| > ) ≤ −−−→ 0.
2 n→∞

Dacă ı̂n plus (Xn )n∈N∗ este un şir de variabile aleatoare independente, atunci din pro-
prietăţile dispersiei avem că:
n n
2 1 2X 1 X 2
lim D [X n ] = 2 D [ Xk ] = 2 D [Xk ].
n→∞ n k=1
n k=1

104
Totodată, dacă D2 [Xn ] ≤ δ < ∞ pentru orice n ∈ N, atunci
n
1 X 2 δ
2
D [Xk ] ≤ −−−→ 0.
n k=1 n n→∞

q.e.d.

Exemplu 1. Considerăm n ∈ N∗ experimente independente pe un acelaşi spaţiu de probabilitate


şi evenimentul A având probabilitatea de realizare pk ı̂n experimentul de rang k. Atunci
n
1X
lim P (|σn − pk | > ) = 0,
n→∞ n k=1
αn
unde am notat cu σn = frecvenţa relativă a evenimentului A.
n
În particular, dacă pn = p pentru orice n ∈ N atunci

lim P (|σn − p| > ) = 0.


n→∞

Răspuns. Considerăm Xk variabila aleatoare de tip Bernoull asociată experimentului de rang


k,  
0 1
Xk : , k = 1, n.
1 − p k pk
Variabila aleatoare Xk cuantifică dacă ı̂n experimentul de rang k evenimentul A a avut loc.
1
Remarcăm că Xk admite medie şi dispersie iar M [Xk ] = pk , D2 [Xk ] = pk qk = pk (1 − pk ) ≤ ,
4
pentru orice k ∈ N∗ . Aplicând Teorema 5.1.4 obţinem rezultatul dorit.
Exemplul 2. Determinaţi volumul unei selecţii Bernoulliene astfel ı̂ncât să se poată aplica legea
slabă a numerelor mari.

Răspuns. Folosim notaţiile din exemplul 1. Determinăm valorile lui n pentru care

P (|σn − p| > ) < δ.

Aplicăm inegalitatea lui Cebı̂şev şi obţinem


pq
P (|σn − p| > ) < ,
n2
unde am considerat variabilele de tip Bernoulli(p). Astfel, condiţia care trebuie aplicată este
pq pq
<δ sau echivalent n > .
n2 δ2
pq 1
şi prin urmare n > max 2
= .
p∈[0,1] δ 4δ2
Teoremă 5.1.5. (A.Y.Khinchin) Fie (Xn )n∈N∗ un şir de variabile aleatoare independentei,
având o aceeaşi funcţie de repartiţie şi valoare medie m finită. Atunci (Xn )n∈N∗ satisface legea
slabă a numerelor mari.

105
Demonstraţie. Fie δ > 0 fixat. Pentru k ∈ {1, . . . , n} definim şirurile de variabile aleatoare
(Yn )n∈N∗ , (Zn )n∈N∗ prin
( (
Xk , dacă |Xk | < δn 0 , dacă |Xk | < δn
Yk = , Zk = .
0 , dacă |Xk | ≥ δn Xk , dacă |Xk | ≥ δn

Observăm că Xk = Yk + Zk pentru orice k ∈ {1, . . . , n}.


Pasul I. Arătăm că
4δM
P (|Y n − m| ≥ ) ≤ 2 ,

Z
unde M = |x|f (x)dx şi am notat cu f densitatea de repartiţie comună a variabilelor Xn ,
R
n ∈ N∗ .
Remarcăm că variabilele aleatore (Yk ) admit medie şi dispersie (ı̂ntrucât iau doar valori
mărginite) şi ı̂n plus avem pentru k ∈ {1, . . . , n}
Z
M [Yk ] = xf (x)dx şi
|x|≤δn
Z Z
2
D [Yk ] = M [Yk2 ] 2
− M [Yk ] ≤ M [Yk2 ] = |x|f (x)dx ≤ nδ x2 f (x)dx = nδM.
|x|≤nδ |x|≤nδ

Întrucât lim M [Yn ] = m avem că pentru  > 0 există un rang de la care
n→∞


|M [Yn ] − m| < .
2
Aplicând inegalitatea lui Cebı̂şev şi folosind faptul că (Yn )n∈N∗ este un şir de variabile
aleatoare independente (proprietate moştenită de la (Xn )n∈N∗ ) obţinem
n
X
4 D2 [Yk ]
2
 D [Y n ] k=1 4δM
P (|Y n − M [Y n ]| ≥ ) ≤ 4 = ≤ .
2 2 (n)2 2
Deoarece

|Y n − M [Y n ]| ≥ |Y n − m| + |m − M [Y n ]| ≥ |Y n − m| − ,
2

avem că {|Y n − m]| ≥ } ⊂ {|Y n − M [Y n ]| ≥ 2 } şi prin urmare
4δM
≥ P (|Y n − M [Y n ]| ≥ P (|Y n − m]| ≥ )
2
Pasul II. Arătăm că n
X
P( Zk 6= 0) ≤ δ.
k=1

Având ı̂n vedere că Zk = 0 pe mulţimea |Xk ≤ δn| avem


Z Z
1 Mδ
P (Zk 6= 0) = f (x)dx ≤ |x|f (x)dx ≤ ,
|x|>δn δn |x|>δn n

106
şi prin urmare
n
X n
X
P( Zk 6= 0) ≤ P (Zk 6= 0) ≤ M δ.
k=1 k=1

Pasul III. Folosind Paşii 1 şi 2 obţinem pentru n suficient de mare


n
X
P (|X n − m| ≥ ) = P (|Y n − m + Z n | ≥ ) ≤ P (|Y k − m| ≥ ) + P ( Zk 6= 0)
k=1

4M δ
≤ + M δ −−−→ 0.
2 n→∞

prin urmare (Xn )n∈N∗ satisface legea slabă a numerelor mari. q.e.d.

Teoremă 5.1.6. (A.N.Kolmogorov) Fie (Xn )n∈N∗ un şir de variabile aleatoare independente
care au medie şi denistate. Atunci (Xn )n∈N∗ satisface legea slabă a numerelor mari dacă şi
numai dacă
Yn2
lim M [ ] = 0,
n→∞ 1 + Yn2
unde şirul de variabile aleatoare (Yn )n∈N∗ este definit prin
n
1X
Yn = (Xk − M [Xk ])2 , n ∈ N∗ .
n k=1

Demonstraţie.
Yn2
Presupunem că lim M [ ] = 0 şi notăm cu fn densitatea lui Yn .
n→∞ 1 + Yn2
n n Z
1X 1X
P (| Xk − M [ Xk ]| ≥ ) = P (|Yn | ≥ ) = fn (x)dx
n k=1 n k=1 |x|≥

1 + 2 x2 1 + 2 x2 1 + 2 Yn2
Z Z
≤ f n (x)dx ≤ f n (x)dx = M [ ] −−−→ 0.
2 |x|≥ 1 + x2 2 R 1 + x2 2 1 + Yn2 n→∞
Reciproc, presupunem că (Xn )n∈N∗ satisface legea slabă a numerelor mari .
x2
Z Z
P (|Yn | ≥ ) = fn (x)dx ≥ f (x)dx
2 n
|x|≥ |x|≥ 1 + x

x2 x2 x2 Yn2
Z Z Z
2
= 2
fn (x)dx − 2
fn (x)dx ≥ 2
fn (x)dx −  = M [ 2
] − 2 .
R 1+x |x|< 1 + x R 1+x 1 + Yn
Prin urmare avem
Yn2
0 ≤ M[ ] ≤ P (|Yn | ≥ ) + 2 ,
1 + Yn2
Yn2
pentru orice  > 0 şi n ∈ N∗ , deci M [ ] −−−→ 0. q.e.d.
1 + Yn2 n→∞

107
5.1.2 Legea tare a numerelor mari
Definiţie 5.1.7. Fie X o variabilă aleatoare pe (Ω, F, P ). Spunem că şirul (Xn )n∈N∗ converge
aproape sigur (tare) către variabila aletoare X dacă

P ({ω ∈ Ω | lim Xn (ω) = X(ω)}) = 1.


n→∞

a.s.
Vom nota convergenţa aproape sigură (tare) prin Xn −−−→ X.
n→∞

Definiţie 5.1.8. Spunem că şirul de variabile aleatoare (Xn )n∈N∗ satisface legea tare a nu-
merelor mari, dacă există un şir de constante (an )n∈N∗ astfel ı̂ncât şirul (X n −an )n∈N satisface
condiţia
a.s.
X n − an −−−→ 0.
n→∞

Prezentăm ı̂n continuare două rezultate care ı̂i sunt atribuite lui A.N.Kolmogorov.

Teoremă 5.1.9. Fie (Xn )n∈N∗ un şir de variabile aleatoare independente, având dispersie finită,
pentru care seria
X D2 [Xn ]
2
este convergentă.
n≥1
n

Atunci, (Xn )n∈N∗ satisface legea tare a numerelor mari.


În particular, dacă un şir (Xn )n∈N∗ de variabile aleatoare independente satisface condiţia ca
şirul (D2 [Xn ])n∈N∗ să fie uniform mărginit (adică, există δ > 0 astfel ı̂ncât D2 [Xn ] ≤ δ <
∞ pentru orice n ∈ N∗ ), atunci şirul satisface legea tare a numerelor mari.

Demonstraţie. Considerăm şirul de variabile aleatoare (Yn )n∈N∗ , definit prin Yn = Xn −


M [Xn ], n ∈ N∗ . Rezultă că

Yn 1
M[ ] = M [Xn − M [Xn ]] = 0,
n n
Yn 1 1
D2 [ ] = 2 D2 [(Xn − M [Xn ])2 ] = 2 M [(Xn − M [Xn ] − M [Xn − M [Xn ]])2 ]
n n n
1 1
= 2 M [(Xn − M [Xn ])2 ] = 2 D2 [Xn ].
n n
X Yn X Yn
Întucât din ipoteză D2 [ ] rezultă că este convergentă aproape sigur (vezi problema
n≥1
n n≥1
n
n
1X
1) şi prin urmare lim Yn = 0 aproape sigur (raţionament specific teoriei seriilor), adică
n→∞ n
k=1

n n
1X 1X punctual
Xk − M [Xk ] −−−−−→ 0,
n k=1 n k=1

mai puţin pe o mulţime de probabilitate nulă.

108
Ultima afirmaţie din enunţul teoremei are loc ı̂ntrucât condiţia D2 [Xn ] ≤ δ < ∞ pentru orice n ∈

N implică
X D2 (Xn ) X 1
2
≤ δ 2
< ∞.
n≥1
n n≥1
n
q.e.d.

Luând ı̂n calcul estimările realizate la Exemplul 1, folosind Teorema 5.1.9 avem:

Exemplu 2. Considerăm n ∈ N∗ experimente independente pe un acelaşi spaţiu de probabilitate


şi evenimentul A având probabilitatea de realizare pk ı̂n experimentul de rang k. Atunci
n
a.s.1X
σn −−→ pk ,
n k=1

unde σn este frecvenţa relativă a evenimentului A.


În particular, dacă pn = p pentru orice n ∈ N atunci
a.s.
σn −−→ p.

Teoremă 5.1.10. Fie (Xn )n∈N∗ un şir de variabile aleatoare independente, având o aceeaşi
funcţie de repartiţie. Atunci (Xn )n∈N∗ satisface legea tare a numerelor mari dacă şi numai
dacă M [X1 ] < ∞.
Demonstraţie. Vom trata doar una din implicaţii, cealaltă fiind evident adevărată.
Fie δ > 0 astfel ı̂ncât M [X1 ] = δ < ∞. Întrucât variabileleZ sunt identic repartizate rezultă
că M [Xn ] = δ pentru orice n ∈ N∗ . Prin urmare obţinem că |x|f (x)dx = γ < ∞, unde s-a
R
notat cu f densitatea de repartiţie a variabilelor Xn , n ∈ N∗ . Prin urmare, pentru orice k ∈ N∗
X n
XX X
P (|Xk | > n) = P (i ≤ |Xk | ≤ i + 1) = iP (i ≤ |Xk | ≤ i + 1)
n≥1 n≥1 i=1 i≥1

X Z XZ Z
≤ i f (x)dx ≤ |x|f (x)dx ≤ |x|f (x)dx = γ < ∞.
i≥1 i≤|x|≤i+1 i≥1 i≤|x|≤i+1 R

Considerăm şirul de variabile aleatoare (Yn )n∈N∗ definit prin


(
Xn , dacă |Xn | < n
Yn = , n ∈ N∗ .
0 , dacă |Xn | ≥ n

Avem
X D2 [Yn ] X M [Y 2 ] X 1 Z XX n Z
n 2
≤ = x f (x)dx ≤ x2 f (x)dx
n≥1
n2 n≥1
n2 n≥1
n2
|x|≤n n≥1 i=0 i≤|x|≤i+1

n n
(i + 1)2 (i + 1)2
XX Z XX
≤ f (x)dx = P (i ≤ |Xk | ≤ i + 1)
n≥1 i=0
n2 i≤|x|≤i+1 n≥1 i=0
n2

109
X X 1 X (i + 1)2 X 1
≤ P (i < |Xk | < i + 1)(i + 1)2 ≤ iP (i < |X k | < i + 1) .
i≥1 n≥i
n2 i≥1
i n≥i
n2
X 1 1 1 2
Remarcăm că seria 2
≤ 2 + < şi prin urmare
n≥i
n k k k

(i + 1)2 X 1 (i + 1)2 2
≤ <4
i n≥i
n2 i i

Continuând şirul de inegalităţi deducem că:


X D2 [Yn ] X Z XZ
2
≤4 i ≤4 |x|f (x)dx ≤ 4γ < ∞.
n≥1
n i≥1 i≤|x|≤i+1 i≥1 R

Aplicând Teorema 5.1.9 rezultă că şirul (Yn )n∈N ∗ satisface legea tare a numerelor mari.
Arătăm ı̂n continuare că
lim P ({Xn 6= Yn }) = 0,
n→∞

ceea ce va implica că sirul (Xn )n∈N ∗ satisface legea tare a numerelor mari.
Într-adevăr, pentru n ≥ n0 , unde n0 urmează a fi ales corespunzător, avem:
X X X
P (Xn 6= Yn ) ≤ P (Xk 6= Yk ) = P (|Xk > k|) ≤ kP (k ≤ |Xk | ≤ k + 1)
k≥n0 k≥n0 k≥n0

X Z XZ Z
= k f (x)dx ≤ |x|f (x)dx = |x|f (x)dx,
k≥n0 k≤|x|≤k+1 k≥n0 k≤|x|≤k+1 |x|≥n0

ultimul
X termen devenind oricât de mic pentru n0 suficient de mare ı̂ntucât s-a arătat mai sus
că P (|Xk | > n) < ∞. q.e.d.
n≥1

5.2 Teorema limită centrală


Teorema Limită Centrală, numită şi miracolul lui Gauss, este unul dintre cele mai importante
rezultate din teoria probabilităţilor. Intuitiv, teorema afirmă că suma unui număr mare de
variabile aleatoare, independente şi identic repartizate, se comportă ı̂n distribuţie ca o variabilă
aleatoare normală standard. Remarcabil la acest rezultat este faptul că nu se presupune nimic
cu privire la tipul de distribuţie a variabilelor care se sumează.

Considerăm funcţia Φ : R −→ (0, ∞) definită prin


Z x
1 t2
Φ(x) = √ e− 2 dt.
2π −∞
Funcţia Φ se numeşte funcţia lui Laplace-Gauss.

110
Figura 38: N(0,1) pe [-6,6]

Remarcă Φ este funcţia de repatiţie a unei variabile aleatoare normale standard.

Propoziţia 5.2.1. Următoarele afirmaţii au loc:


(i) Φ(−x) = 1 − Φ(x) pentru orice x ∈ R.
(ii) lim Φ(x) = 0, lim Φ(x) = 1.
x→−∞ x→∞
(iii) Φ este o funcţie strict crescătoare.
(iv) Dacă X ∼ N (µ, σ 2 ) atunci

β−µ α−µ
P (α ≤ X < β) = Φ( ) − Φ( ).
σ σ
Demonstraţie. (i) Utlizând schimbarea de variabilă u = −t obţinem
Z −x Z ∞ Z x
1 2
− t2 1 − u2
2 1 t2
Φ(−x) = √ e dt = √ e du = 1 − √ e− 2 dt
2π −∞ 2π x 2π −∞

= 1 − Φ(x), pentru orice x ∈ R.


Afirmaţia (ii) are loc potrivit calculelor efectuate ı̂n cazul distribuţiei normale, secţiunea
4.8, iar (iii) este adevărată având ı̂n vedere interpretarea lui Φ drept aria subgraficului funcţiei
t 2
√1 e− 2 .

(iv) Dacă notăm cu FX distribuţia lui X, atunci pentru orice x ∈ R avem
x−µ
x
x−µ
Z Z
1 −
(t−µ)2 u= t−µ 1 σ y2 (ii)
FX (x) = √ e 2σ 2 dt = 2
√ e− 2 dy = Φ( ).
σ 2π −∞ 2π −∞ σ

Prin urmare,
β−µ α−µ
P (α ≤ X < β) = FX (β) − FX (α) = Φ( ) − Φ( ).
σ σ
q.e.d.

Definiţie 5.2.2. Fie (Xn )n∈N∗ un şir de variabile aleatoare pe (Ω, F, P ) şi (FXn )n∈N∗ şirul
funcţiilor de repartiţie corespunzătoare. Spunem că şirul (Xn )n∈N∗ converge ı̂n distribuţie

111
(repartiţie) către variabila aleatoare X dacă şirul (FXn )n∈N∗ converge către funcţia de repartiţie
FX a lui X ı̂n fiecare punct de continuitate a lui FX , adică

lim FXn (a) = FX (a),


n→∞

pentru orice a din domeniul de continuitate a funcţiei FX .

d
Vom nota convergenţa ı̂n distribuţie prin Xn −−−→ X.
n→∞
Remarcă. Din definiţia convergenţei ı̂n repartiţie a unui şir de variabile aleatoare rezultă că
limita nu este unică ı̂ntrucât există variabile aleatoare distincte care au aceeaşi funcţie de
repartiţie.

Propoziţia 5.2.3. Fie (Xn )n∈N∗ un şir de variabile aleatoare pe (Ω, F, P ). Atunci
P d
(i) Dacă Xn −−−→ X atunci Xn −−−→ X. Reciproca nu este adevărată.
n→∞   n→∞
a d P
(ii) Dacă a ∈ R, X : şi Xn −−−→ X atunci Xn −−−→ X.
1 n→∞ n→∞

Demonstraţie.
(i) Fie a un punct din domeniul de continuitate a lui Fx şi  > 0. Atunci, pentru orice
n ∈ N∗ avem

FX (a − ) = P (X ≤ a − ) = P (X ≤ a − , Xn ≤ a) + P (X ≤ a − , Xn > a)

≤ P (Xn ≤ a) + P (|Xn − X| > ) = FXn (a) + P (|Xn − X| > ),

FXn (a) = P (Xn ≤ a) = P (X ≤ a + , Xn ≤ a) + P (X > a + , Xn ≤ a)


≤ P (X ≤ a + ) + P (|Xn − X| > ) = FX (a + ) + P (|Xn − X| > ).
Prin urmare,

FX (a − ) ≤ FXn (a) + P (|Xn − X| > ) ≤ FX (a + ) + P (|Xn − X| > ).


P
Folosind ultimul şir de inegalităţi, faptul că Xn −−−→ X şi continuitatea lui FX ı̂n a obţinem
n→∞

lim FXn (a) = FX (a).


n→∞

Faptul că reciproca nu este adevărată rezultă din următorul contraexemplu. Considerăm
spaţiul de probabilitate ([0, 1], B[0,1] , P ) şi pe acesta variabilele aleatoare
( (
0 , dacă ω ∈ [0, 12 ] 1 , dacă ω ∈ [0, 21 ]
Xn = , X = , n ∈ N∗ .
1 , dacă ω ∈ ( 12 , 1] 0 , dacă ω ∈ ( 12 , 1]

Şirul (Xn )n∈N∗ nu converge ı̂n probabilitate la X deoarece

P ({|Xn − X| = 1}) = P ([0, 1]) = 1.

112
Întrucât FXn = FX pentru orice n ∈ N∗ , rezultă că lim FXn = FX pe domeniul de continu-
n→∞
itate a lui FX . Prin urmare, (Xn )n∈N∗ converge ( ı̂n repartiţie la X.
0 , dacă x < c
(ii) Funcţia de repartiţie a lui X este FX = .
1 , dacă x ≥ c
Pentru  > 0, avem

P (|Xn − X| > ) = 1 − P (c −  ≤ Xn ≤ c + ) = 1 − P (Xn ≤ c + ) + P (Xn ≤ c − )

= 1 − FXn P (c + ) + FXn (c − ).


Folosind faptul că c +  şi c −  sunt puncte de continuitate ale lui FX şi ipoteza, deducem că

lim P (|Xn − X| > ) = lim (1 − FXn P (c + ) + FXn (c − ))


n→∞ n→∞

= 1 − FX (c + ) + FX (c − ) = 1.
q.e.d.

Înainte de a enunţa Teorema Limită Centrală, prezentăm câteva rezultate preparative, fără
a intra ı̂n detaliile demonstraţiilor.
Teoremă 5.2.4. (Teorema de continuitate a lui Lévy) Fie (Xn )n∈N∗ , X variabile aleatoare şi
(ϕXn )n∈N∗ , ϕX funcţiile caracteristice corespunzătoare, astfel ı̂ncât (ϕXn )n converge punctual la
o funcţie ϕ. Atunci, următoare afirmaţii sunt echivalente:
(i) şirul (Xn )n∈N∗ converge ı̂n distribuţie către variabilă aleatoare X.
(ii) ϕ este funcţia caracteristică variabilei aleatoare X.
Teoremă 5.2.5. (Teorema de convergenţă dominată) Fie (Xn )n∈N∗ un şir de variabile aleatoare
care converge aproape sigur la o variabilă aleatoare X. Presupunem că există o variabilă
aleatoare Y care admite medie finită astfel ı̂ncât |Xn | ≤ Y a.s. (adică are loc pe Ω ı̂n afara
unei mulţimi de probabilitate zero). Atunci,

lim M [Xn ] = M [X].


n→∞

În cele ce urmează presupunem, fără a restrânge generalitatea, că toate variabilele aleatoare
care vor fi utilizate admit densitate. Pentru un şir (Xn )n∈N∗ de variabile aleatoare pe (Ω, F, P )
vom considera, pe acelaşi spaţiu, şirul de variabile aleatoare (X
en )n∈N∗ , definit prin
n
X
X
en = Xk , n ∈ N ∗ .
k=1

Teoremă 5.2.6. (Teorema Limită Centrală) Fie (Xn )n∈N∗ un şir de variabile aleatoare indepen-
dente pe (Ω, F, P ), care admit o aceeaşi funcţie de repartiţie (identic distibuite) şi presupunem
că M [Xn ] = 0 şi D2 [Xn ] = 1 pentru orice n ∈ N∗ . Atunci,
! Zx
X
en 1 u2
(5.2) lim P √ ≤ x = √ e− 2 du, pentru orice x ∈ R.
n→∞ n 2π
−∞

113
X
en
Altfel spus, şirul de variabile aleatoare ( √ )n∈N∗ converge ı̂n distribuţie către o variabilă
n
aleatoare distribuită normal standard.
Demonstraţie.
Folosind independenţa variabilelor aleatoare şi proprietăţile funcţiei caracteristice avem că
pentru orice t ∈ R
n n
it X
√n
e Y X
k
it √n
Y t t
ϕ Xe (t) = M [e n ]= M [e ]= ϕXk ( √ ) = ϕnX ( √ ),

n
k=1 k=1
n n

unde am notat cu ϕ funcţia caracteristică comună a familiei de variabile (Xn )n∈N∗ , acestea fiind
identic repartizate.
Din teorema de continuitate a lui Levy, relaţia (5.2) devine echivalentă cu

t t2
(5.3) lim |ϕn ( √ ) − e− 2 | = 0, pentru orice t ∈ R.
n→∞ n
Cum relaţia (5.3) are loc pentru t = 0, rămâne de arătat pentru t 6= 0.
t2
Fie t 6= 0. Întrucât ϕ( √tn ), e− n ∈ [0, 1], obţinem
t t2 t t2 t t2
|ϕn ( √ ) − e− 2 | = |ϕn ( √ ) − (e− 2n )n | ≤ n|ϕ( √ ) − e− 2n |
n n n
t t2 t2 t2
≤ n|ϕ( √ ) − (1 − )| + n|(1 − ) − e− 2n |.
n 2n 2n
t2 t2
Remarcăm că lim n|(1 − ) − e− 2n | = 0, relaţia (5.3) devenind echivalentă cu
n→∞ 2n
t t2
(5.4) lim n|ϕ( √ ) − (1 − )| = 0.
n→∞ n 2n

Deoarece M [X1 ] = 0 şi D2 [X1 ] = 1 avem că

t t2 i √t X t t2
lim n|ϕ( √ ) − (1 − )| ≤ lim nM [|e n 1 − (1 + i √ X1 + i2 X12 )|].
n→∞ n 2n n→∞ n 2n

În continuare, majorăm cantitatea de sub media din termenul drept ı̂n două moduri, prin
it
√ X
utilizarea dezvoltării ı̂n serie Taylor a lui e n 1

i √tn X1 t t2 i √t X t t2
|e − (1 + i √ X1 + i2 X12 )| ≤ |e n 1 − (1 + i √ X1 )| + i2 X12
n 2n n 2n
t2 2
2 2 t
2
2t
2
≤i X1 + i X1 = i X12
2
şi
2n 2n n

i √tn X1 t t2 |t|3 |X1 |3


|e − (1 + i √ X1 + i2 X12 )| ≤ √ .
n 2n 6n n

114
şi obţinem

i √tn X1 t t2 t2 |t|3 |X1 |3


n|e − (1 + i √ X1 + i2 X12 )| ≤ X12 1A + √ 1A c ,
n 2n n 6n n

unde A = {|X1 | > δ n}, 1A este funcţia caracteristică a lui A şi δ > 0 fixat.
Revenind la estimarea limitei avem

i √tn X1 t t2 |t|3
lim nM [|e − (1 + i √ X1 + i2 X12 )|] ≤ lim (t2 M [X12 1A ] + √ M [X12 ]M [|X1 |1Ac ])
n→∞ n 2n n→∞ 6 n

|t|3 √ |t|3 δ
Z
≤ lim (t M [X1 1A ] + √ δ n 1Ac fX1 (x)dx) ≤ lim (t2 − t2 M [X12 1Ac ] +
2 2
).
n→∞ 6 n R n→∞ 6
Considerând variabile aleatoare

Zn = X12 1Ac fX1 = X12 1{|X|≤δn} fX1 , n ∈ N∗ şi Z = X12 fX ,

deducem că şirul Zn converge crescător la Z (ı̂ntrucât {|X| ≤ δn} % Ω) şi M [Z] < ∞ (pentru
că M [X 2 ] = 1). Aplicând Teorema 5.2.5 pentru şirul (Zn )n∈N şi Z rezultă că lim M [X12 1Ac ] =
n→∞
M [X 2 ] = 1.
Cum δ poate fi făcut oricât de mic, deducem că

i √tn X1 t t2
nM [|e − (1 + i √ X1 + i2 X12 )|] = 0.
n 2n

q.e.d.

Prezentăm ı̂n continuare alte versiuni ale Teoremei Limita Centrală care se deduc din Teo-
rema 5.2.6.

Corolar 5.2.7. (Teorema lui A.Lyapunov) Fie (Xn )n∈N∗ un şir de variabile aleatoare indepen-
dente pe (Ω, F, P ), care admit o aceeaşi funcţie de repartiţie. Atunci

en ≤ β) = Φ( β −√
lim P (α ≤ X
n·m
) − Φ(
α−n·m
√ ), pentru orice α, β ∈ R, α < β,
n→∞ σ n σ n

unde s-a notat cu m media variabilelor şi cu σ 2 dispersia acestora.


Xn − m
Demonstraţie. Fie α, β ∈ R, α < β. Considerăm variabilele aleatoare Yn = . Atunci
σ
1 1
M [Yn ] = (M [Xn ] − m) = 0, D2 [Xn ] = 2 D2 [Xn ] = 1, pentru orice n ∈ N∗ . Întrucât şirul
σ σ
(Yn )n∈N∗ este format din variabile aleatoare independente, identic repartizate, aplicăm Teorema
5.2.6 pentru şirul (Yn )n∈N∗ şi obţinem

α − mn Yen β − mn Ye β − mn Ye α − mn
lim P ( √ ≤√ ≤ √ ) = lim (P ( √n ≤ √ ) − P ( √n ≤ √ )) =
n→∞ σ n n σ n n→∞ n σ n n σ n

115
β−mn

σ n
β−n·m α−n·m
Z
u2
e− 2 du = Φ( √ ) − Φ( √ ).
σ n σ n
α−mn

σ n

ek − mn
X
Pe de altă parte, observând că Yen = rezultă că
σ
α − mn Yen β − mn α − mn ek − mn
X β − mn
lim P ( √ ≤√ ≤ √ ) = lim P ( √ ≤ √ ≤ √ )
n→∞ σ n n σ n n→∞ σ n σ n σ n

= P (α ≤ X
ek ≤ β).
q.e.d.

Remarcă 5.2.8. Condiţiile de finitudine a mediei şi dispersiei şirului de variabile aleatoare
din ipoteza teoremei limită centrală sunt necesare.
Demonstraţie. Distribuţia Cauchy oferă un exemplu care justifică faptul că nu se poate
renunţa la aceste condiţii. Fie X o variabilă aleatoare distribuită Cauchy, prin urmare densi-
tatea este
1
fX (x) = , x ∈ R.
π(1 + x2 )
Media şi dispersia lui X:
M [X] = ∞, D2 [X] = ∞.
Funcţia caracteristică ascoiată lui X:

ϕX (t) = e−|t| .

Fie (Xn )n∈N∗ un şir de variabile aleatoare distribuite Cauchy, identic repartizate. Arătăm că
funcţia caracteristică asociată variabilei aleatoare X
en este de asemenea o funcţie caracteristică a
unei variabile aleatoare distribuite Cauchy, ceea ce justifică necesitatea condiţiilor de finitudine
din ipoteza Teoremei Limită Centrală.
Folosind independenţa variabilelor şi faptul că acestea sunt identic repartizate, deducem că
n n
indep
Y Y t id.rep. t |t|
ϕXen (t) = ϕ Xk (t) = ϕXk ( ) = (ϕX1 ( ))n = (e− n )n = e−|t| , t ∈ R.
k=1
t
k=1
n n

q.e.d.

Corolar 5.2.9. (Teorema lui A. de Moivre - P.S.Laplace) Fie (Xn )n∈N∗ un şir de variabile
aleatoare independente pe (Ω, F, P ), care sunt identic repartizate de tip Bernoulli. Atunci

en ≤ β) = Φ( β√− np ) − Φ( α√− np ),
lim P (α ≤ X
n→∞ npq npq

unde Xn ∼ Bernoulli(p) pentru orice n ∈ N∗ şi q = 1 − p.

116
Demonstraţie. Rezultatul este o consecinţa a Teoremei 5.2.9, observând că ı̂n acest caz
M [Xn ] = p şi D2 [Xn ] = pq. q.e.d.

Prezentăm ı̂n continuare versiunea multivariată a Teoremei Limită Centrală, demonstraţia


acesteia fiind omisă.

Teoremă 5.2.10. Fie X = (Y1 , . . . , Yp ) un vector aleator având covarianţă Σ şi M [Yi2 ] < ∞
pentru i ∈ {1, . . . , p}. Dacă (Xn )n∈N∗ este un şir de vectori aleatori independenţi, identici
repartizţi cu X, atunci
en − M [Xn ] d
X
√ −−−→ N (0, Σ),
n n→∞

sau echivalent, potrivit definiţiei convergenţei ı̂n distribuţie, pentru orice D ∈ Rp

en − M [Xn ]
X
lim P ( √ ∈ D) = P (Y ∈ D), Y ∼ N (0, Σ).
n→∞ n

Exemplul 1. (Câştigarea jocului la ruletă) Considerăm jocul ruletei europene şi ne propunem să
evaluăm care sunt şansele unui jucător de a avea câştig. Acest tip de ruletă are 37 de numere,
18 pare de culoare roşie, 18 impare de culoare neagră şi numărul 0 de culoare verde.

Răspuns. Să presupunem că la fiecare ı̂nvârtire a ruletei jucătorul pariază pe obţinerea culorii
negre, câştigul jucătorului fiind mereu 1 dacă apare culoarea neagră, respectiv −1 ı̂n caz contrar
(spre exemplu, câştigă sau pierde 1 leu).
Considerăm
 X
n variabila aleatoare care cuantifică câştigul obţinut la a n-a ı̂nvârtire. Obţinem
−1 1 18
că Xn : pentru orice n ∈ N∗ , unde p = . Ne interesează să evaluăm P (X en > 0),
q p 37
când n este suficient de mare, să spunem de exemplu 100.
1 1
Întrucât M [Xn ] = − , D2 [Xn ] = 1 − 2 ≈ 1, folosind Teorema 5.2.9 obţinem
37 37
r
en > 0) = 1 − P (X
P (X en ≤ 0) = 1 − φ(− np ) n=100 10
≈ 1 − Φ( ) = P (Y > ) ≈ 0.39,
10
q 37 37

unde Y este distribuită normal standard.


Prin urmare, probabilitatea ca jucătorul să câştige după 100 de ı̂nvârtiri ale ruletei este de
39%.

Exemplul 2. Determinaţi volumul unei selecţii Bernoulliene ştiind că legea slabă a numerelor
mari se aplică.

Răspuns. Fie (Xn )n∈N∗ un şir de variabile aleatoare distribuite Bernoulli. Determinăm valorile
lui n pentru care
X
en
P (| − p| > ) < δ.
n

117
Astfel,
X
en Xen − np r
n
lim P (| − p| > ) = lim P (| √ |> )=
n→∞ n n→∞ npq pq
en − np
X
r
n
r
n
r
n
r
n
lim [1 − P (| √ |≤ )] = 1 − (Φ( ) − Φ(− )) = 1 − 2Φ( ).
n→∞ npq pq pq pq pq
Prin urmare, considerând u 1−δ soluţia ecuaţiei Φ(x) = 1−δ
2
(denumită şi cuantila de ordin
2
1−δ
2
) atunci

1−δ
r r
en − p| > ) ≈ 1 − 2Φ( n n
P (|X ) < δ ⇔ Φ( )>
pq pq 2

n u21−δ
⇔  > u 1−δ ⇔ n > 2 √2 .
pq 2  pq
În concluzie, volumul unei selecţii Bernoulliene, ştiind că se aplică teorema limită centrală,
este n ∈ (nδ , ∞) unde
u21−δ u21−δ
nδ = max 2 √2 = 22 .
p∈[0,1]  pq 4
Exemplul 3. (exit pools) Considerăm experimentul realizării unui exit pool la un proces elec-
toral dedicat alegerii primarului din oraşul ı̂n care locuiţi. Prin urmare, selectăm un volum  de

0 1
alegători şi asociem variabilele aleatoare de tip Bernoulli (Xn )n∈N∗ definite prin Xn : ,
q p
care cuantifică dacă alegătorul n a votat sau nu cu un anume candidat, p fiind probabilitatea
ca acel candidat să fie ales. Valoarea lui p este necunoscută. Să se determine volumul de date
necesare realizării exit pool-ului, dacă ne propunem să identificăm o aproximare pentru p astfel
ı̂ncât cu o eroare egală cu , aceasta să fie valabilă ı̂n cel puţin 100(1 − δ)% situaţii.

Răspuns. Soluţia se ı̂ncadrează ı̂n exemplul precedent, ı̂ntrucât suntem interesaţi să determinăm
volumul unei selecţii de variabile aleatoare Bernoulli astfel ı̂ncât

X
en
P (| − p| < ) ≥ 1 − δ.
n
u21−δ
Folosind calculele realizate anterior, obţinem n ∈ ( 22 , ∞).
4
Spre exemplu, o regulă ı̂n cazul proceselor electorale este ca exit pool-urile să fie realizate
2.172
pentru δ = 0.05, respectiv  = 0.03, obţinem n > 4·0.03 2 , adică

n ∈ (1309, ∞).
1−δ
S-a folosit ı̂n calcul faptul că soluţia ecuaţei Φ(z) = 2
= 0.485 este 2.17.

118
5.3 Probleme propuse
Problema 1. O reţea de traficanţi de droguri plasează substanţe interzise ı̂n pacheţele
conţinând ı̂ntre 10g şi 50g. Distribuţia pachetelor se realizează uniform. Pachetele se plasează
ı̂n baxuri, fiecare bax conţinând 1000 pacheţele. Baxul este respins la controlul vamal dacă are
mai mult de 32kg. Folosind teorema limită centrală, să se determine probabilitatea ca baxul să
treacă controlul vamal.

Problema 2. Se consideră ecuaţia ax2 + bx + 1 = 0, a 6= 0, a, b ∈ R, −1 ≤ a ≤ 1, −2 ≤ b ≤ 2.


Dacă se aleg la ı̂ntâmplare a, b ı̂n condiţiile de mai sus, să se determine: (i) probabilitatea ca
ambele rădăcini să fie reale (notată p).
(ii) Să se determine n ∈ N∗ astfel ı̂ncât P (|νn −p| ≤ 0.01) = 0.7, unde νn este variabila aleatoare
a frecvenţelor relative ale apariţiei evenimentului ca ambele rădăcini să fie reale.

Problema 3. Se aruncă simultan 1000 zaruri şi se notează cu S suma valorilor obţinute.
Determinaţi cantităţile P (3500 ≤ S ≤ 4000), respectiv P (4000 ≤ S ≤ 6000) şi comparaţi
valorile obţinute.

Problema 4. Considerăm şirul de variabile aleatoare (Xn )n∈N∗ având densităţile de probabil-
n
itate fXn (x) = , x ∈ R. Converge şirul (Xn )n∈N∗ ı̂n probabilitate către 0? Justificaţi!
π(x + n2 )
2

Problema 5. Considerăm şirul de variabile aleatoare (Xn )n∈N∗ repartizate astfel:

−1
!
0 1
Xn : 1 2 1 , n ∈ N∗ .
1−
n n n
(i) Calculaţi mn şi σn , mediile şi abaterile medii pătratice ale lui Xn .
p
(ii) Decideţi dacă Xn → 0.

Problema 6. Probabilitatea de câştig la ruletă este 0, 45. Presupunem că la fiecare joc câştigă
sau pierde 1 euro. Câte jocuri trebuie jucate astfel ı̂ncât cu probabilitatea de 0, 5 câştigul
cazinoului să fie de cel puţin 1000 euro?

Problema 7. Câştigul zilnic al unui jucător la ruletă este repartizat uniform ı̂n intervalul
[−45, 55]. Care este probabilitatea ca el să câştige 1000 euro ı̂n 100 zile?

Problema 8. Consideră şirul de variabile aleatoare


√ independente (Xn )n∈N∗ un şir de variabile
aleatoare independente care iau doar valorile ± lg n cu probabilităţile:
p p 1
P (Xn = lg n) = P (Xn = − lg n) = , pentru orice n ∈ N, n ≥ 2,
2
cu excepţia variabilei X1 pentru care P (X1 = 0) = 1. Să se arate că şirul (Xn )n∈N∗ satisface
legea slabă a numerelor mari.

Problema 9. Dacă şirurile de variabile aleatoare (Xn )n∈N∗ , (Yn )n∈N∗ satisfac proprietăţile:

119
(i) MX[Xn ] = M [Yn ] pentru orice n ∈ N∗ .
(ii) P (Xn 6= Yn ) < ∞.
n≥1
(iii) şirul (Xn )n∈N∗ satisface legea slabă a numerelor mari.
Atunci, şirul (Yn )n∈N∗ satisface legea slabă a numerelor mari.

Problema 10. Fie (Xn )n∈N∗ un şir de variabile aleatoare care satisface condiţiile din teorema
limită centrală şi presupunem ı̂n plus că dispersia variabilelor este strict pozitivă. Atunci şirul
satisface legea slabă a numerelor mari.

Problema 11. FieX (Xn )n∈N∗ un şir de variabile


X aleatoare independente având medie nulă şi
2
cu proprietatea că D [Xn ] < ∞. Atunci Xn converge aproape sigur.
n∈N∗ n∈N∗

Problema 12. Considerăm şirul de variabile aleatoare (Xn )n∈N∗ cu valori ı̂n (0, 1], indepen-
dente şi identic repartizate, respectiv funcţille u, v : (0, 1] −→ (0, ∞) continue şi mărginite
verificând condiţia u ≤ cv cu c > 0. Să se arate că

u(X1 ) + . . . + u(Xn ) M [u(X1 )]


lim M [ ]= .
n→∞ v(X1 ) + . . . + v(Xn ) M [v(X1 )]

Problema 13. Considerăm funcţia u : R −→ R continuă şi mărginită. Arătaţi că pentru orice
x ∈ R şi h > 0 avem
X k (nh)k
lim u(x + )e−nh = u(x + h),
n→∞
k≥0
n k!

Problema 14. (Teorema de aproximare a lui Weierstrass) Fie f : [0, 1] −→ R o funcţie


continuă. Atunci n
X k
lim sup |f (x) − f ( Cnk xk (1 − x)n−k )| = 0.
n→∞ x∈[0,1]
k=0
n

Problema 15. Dacă f : (0, 1) −→ R este o funcţie continuă atunci să se determine
Z 1 Z 1
x1 + . . . + xn
lim ... f( )dx1 . . . dxn .
n→∞ 0 0 n

5.4 Simulări cu Mathematica


Problema 1. Simulaţi teorema limită centrală folosind distribuţiile Laplace simetrice de
parametrii 0 şi σ.

Răspuns. Densitatea unei variabile aleatoare distribuită Laplace simetrică de parametrii m şi
σ este:
|x − m|

e σ
fX (x) = , x ∈ R.

120
Simularea se va realiza prin trecerea la limită a şirului de funcţii caracteristice asociate unor
rescalări ale variabilei aleatoare distribuită Laplace simetrică:

dist = LaplaceDistribution[0, σ];


√ 1
CharacteristicFunction[dist, t/ nVariance[dist]]
t2
1+
2n
t2
Limit[%ˆn, n→ Infinity] e− 2

Problema 2. Reprezentaţi pe intervalul [−3, 3] densitatea sumei a n variabile aleatoare uni-


forme pe [−1, 1], independente, pentru n ∈ {1, 2, 4, 6, 8, 10} (potrivit teoremei limită centrală,
dacă sumăm suficient de multe astfel de variabile densitatea sumei se apropie de clopotul lui
Gauss).

Plot[Evaluate@Table[PDF[UniformSumDistribution[n, {-1, 1}], x], {n,


{1, 2, 4, 6, 8, 10}}], {x, -3, 3}, PlotRange -> All, Exclusions ->
None, Filling -> Axis]

Figura 39: Sumă de variabile aleatoare uniforme independente

Altă variantă de a simula pe intervalul [−2, 2] suma a n variabile aleatoare uniforme pe


1 1
[− , ], independente, pentru n ∈ {1, . . . , 20}:
2 2
usd[n ] := UniformSumDistribution[n, {-.5, .5}];
Plot[Evaluate[PDF[usd@#, x] & /@ Range[20]], {x, -2, 2},
PlotStyle -> (ColorData[{"Rainbow", {1, 20}}] /@ Range[20]),
Exclusions -> None, PlotRange -> All, ImageSize -> 500]

121
Figura 40: Sumă de variabile aleatoare uniforme independente

Problema 3. Suma pătratelor a n variabile aleatoare identic repartizate, independente şi dis-
tribuite normal standard este o variabilă aleatoare distribuită χ2 (n).

Răspuns.
distr[n Integer?Positive] := Module[{x, v}, v = Array[x, n];
TransformedDistribution[Total[v2 ], Thread[v ≈
NormalDistribution[]]]] Table[distr[n], {n, 5}]

ChiSquareDistribution[1],
ChiSquareDistribution[2],
NoncentralChiSquareDistribution[3, 0],
NoncentralChiSquareDistribution[4, 0],
NoncentralChiSquareDistribution[5, 0]

Verificare a rezultatului:

And @@ Table[ distr[n] == NoncentralChiSquareDistribution[n, 0],


n, 3, 20]
True

A doua verificare a rezultatului prin reprezentarea grafică a densităţilor celor două distribuţii:

Plot[Evaluate@ Table[PDF[distr[n], x], {n, 1, 2, 3, 4, 10,


15, 20}}], {x, 0, 50}, Filling -> Axis]

122
Figura 41: Suma pătratelor normalelor standard, independente şi identic repartizate

Plot[Evaluate@ Table[PDF[NoncentralChiSquareDistribution[n, 0], x],


{n, {1, 2, 3, 4, 10, 15, 20}}], {x, 0, 50}, Filling -> Axis]

Figura 42: Distribuţia χ2 cu n = 1, 2, 3, 4, 10, 15, 20 grade de libertate

Întrucât graficele anterioare sunt foarte apropiate, concluzia problemei rezultă adevărată ı̂n
mod empiric.

Problema 4. Ilustraţi teorema limită centrală prin generarea unui număr mare de repartiţii
binomiale. Reprezentaţi rezultatele obţinute prin histograme şi comparaţi cu repartiţia nor-
mală.

Răspuns.
comparatie[n , p ] := Module[{scale = 0.97},
Show[ListPlot[ Table[{k, PDF[BinomialDistribution[n, p], k]},
{k, 0, n}], Filling -> Axis, FillingStyle -> Black, PlotRange -> All,
PlotStyle -> PointSize[.02],
Epilog -> {Inset[ Style[Column[{"binomiala (puncte)", " versus ",
"Gaussiana (linie continua)", Row[{"n = ", n}], Row[{"p = ", p}],
Row[{" (OverscriptBox[ (k ), ( )] ) = ", n p}]}], Small],
Scaled[scale {1, 1}], {1, 1}]}],
Plot[PDF[NormalDistribution[n p, Sqrt[n p (1 - p)]], k], {k, 0, n},

123
PlotStyle -> Directive[Red, Thickness[.006]], PlotRange -> All],
FrameLabel -> {"k", "P(k)"}, ImageSize -> 400, PlotRangePadding ->
{{0, 0}, {0, .04}}]]

parametrii = {{{10, 0.5}, {10, 0.2}}, {{25, 0.5}, {25, 0.2}},


{{100, 0.5}, {100, 0.2}}, {{200, 0.5}, {200, 0.2}}};

GraphicsGrid[Apply[comparatie, parametrii, 2]]

Figura 43: Simulare teorema limită centrală

124
Bibliografie
[1] G.Ciucu, C.Tudor, Teoria Probabilităţilor şi aplicaţii. Editura Ştinţifică şi Enciclopedică,
1983.

[2] I.Cuculescu, Teoria Probabilităţilor. Editura All, Bucureşti, 1998.

[3] J.-F.Delmas, B.Jourdain: Modèles aléatoires–Applications aux sciences de l’ingénieur et


du vivant. Springer, 2006.

[4] J.L.Devore, Probability and Statistics for Engineering and the Sciences. Editura Duxbury,
California Polytechnic State University, 2000.

[5] A.N.Kolmogorov, Fundations of the theory of probabilty. Editura Chelsea, New York, 1956.

[6] J.-F.Le Gall, Intégration, Probabilités et Processus Aléatoires. Ecole Normale Supérieure
de Paris, 2006.

[7] C.Reischer, G.Sâmboan, R.Theodorescu, Teoria probabilităţilor. Editura Didactică şi Pe-
dagogică Bucureşti, Bucureşti, 1967.

[8] E.Simion, D.Naccache, M.Andraşiu, Gh.Simion, Cercetări operaţionale, probabilităţi şi


criptologie. Aplicaţii. Editura Academiei Tehnice Militare, 2012.

[9] L.Stoica, Introducere ı̂n calculul probabilităţilor. Editura Universităţii din Bucureşti, 2004.

[10] O.Stănăşilă, Matematici speciale, ecuaţii diferenţiale şi analiză complexă, vol II. Editura
All Educational, Bucureşti, 2001.

[11] C.Tudor, Curs de Teoria Probabilităţilor. Editura Universităţii din Bucureşti, 2011.

[12] C.Tudor, Introduction to Stochastic Processes. Editura Universităţii din Bucureşti, 2009.

Produsul software utilizat: https://www.wolfram.com/mathematica/


http://mathematica.stackexchange.com/

125
126
Index
B, 90 fXi , 69
Bernoulli(p), 48
Beta(α, β), 86 coeficientul de corelaţie, 46, 76
Bin(n, p), 51 convergenţă ı̂n probabilitate, 103
Cov(Xi , Yj ), 76 convergenţă aproape sigură (tare), 108
Dir(p, α), 93 Cov[X,Y], 46
Exp(λ), 81 covarianţa, 46, 76
F (r, s), 90 densitate de probabilitate comună, 69
FX , 34 densitatea de probabilitate, 64
FXi , 69 densitatea de probabilitate comună, 68
GX , 47 dispersia şi abaterea medie pătratică, 45, 75
Geom(p), 52 distribuţia χ2 , 87
HGeom(n, K, N ), 55 distribuţia T /student, 89
Im(X), 33 distribuţia Bernoulli, 48
M [X], E[X], m, 42, 74 distribuţia beta, 86
Mk [X], Ek [X], mk , 44, 75 distribuţia binomială, 51
M ultinomial(n, θ), 92 distribuţia binomială negativă, 54
N B(k, p), 54 distribuţia exponenţială, 81
Np (µ, Σ), 94 distribuţia Fisher-Snedecor, 90
P , 10, 14 distribuţia geometrică, 52
P oisson(λ), 50 distribuţia Hipergeometrică, 55
T (r), 89 distribuţia multinomială, 92, 93
U (n), 49 distribuţia normală (Gaussiană), 82
U nif [a, b], 79 distribuţia normală multivariată, 94
Γ, 84 distribuţia Poisson, 50
Ω , F, 12 distribuţia uniformă continuă, 79
αn , σn (A), 9 distribuţia uniformă discretă, 49
β, 86
B(R), 14 eveniment aleator, 7
χ2 (r), 87 eveniment elementar, 7
N (µ, σ 2 ), 82 eveniment imposibil, 7
lim inf n≥1 , lim supn≥1 , 13 eveniment sigur, 7
µk [X], 44, 75 evenimente compatibile, 7
ρ[X, Y ], 46 evenimente contrare, 7
σ, 13 evenimente echiposibile, 8
σ-algebră, 12 evenimente independente, 17
σ-algebra generată, 13 experiment aleator, 7
σ(S), 13
σ[X], 45 formula lui Bayes, 20, 67
σ 2 [X], D2 [X], 45, 76 formula probabilităţii totale, 20, 67
ϕX , 76 frecvenţa absolută, 9
fX , 36, 64 frecvenţa relativă, 9

127
funcţia de probabilitate, 36
funcţia caracteristică, 76
funcţia de distribuţie (repartiţie), 34
funcţia de repartiţie comună, 67
funcţia lui Laplace-Gauss, Φ, 110
funcţie de repartiţie condiţionată, 66
funcţie generatoare de momente, 47
funcţii marginale de repartiţie, 69

imaginea unei variabile aleatoare, 33


inegalitatea lui Cebı̂şev, 103

legea slabă a numerelor mari, 104


legea tare a numerelor mari, 108

matricea de covarianţă, 76
media unei variabile aleatoare, 42, 73
media unui vector aleator, 76
moment centrat, 44, 75
moment iniţial, 44, 75

probabilitate, 10, 14
probabilitate condiţionată, 19

regula celor 3-σ, 103


repartiţia (distribuţia), 35

sistem complet de evenimente, 20


spaţiu de probabilitate, 14
spaţiu măsurabil, 13
spaţiul evenimentelor, 7
spaţiul stărilor, 8

teorema de continuitate a lui Lévy, 113


teorema de convergenţă dominată, 113
teorema limită centrală, 113

variabilă aleatoare, 33
variabilă aleatoare continuă, 64
variabilă aleatoare discretă, 34
variabilă aleatoare simplă, 35
variabile discrete independente, 37
vector aleator, 67

128

S-ar putea să vă placă și