Sunteți pe pagina 1din 289

Lect. dr. ec.

Remus C-tin BUTĂNESCU-VOLANIN,


Probabilități și statistică matematică cu aplicații în economie

Sibiu, 2015
Remus BUTĂNESCU-VOLANIN

Probabilități
și statist ică
matematică
cu aplicații în
economie
EDITURA UNIVERSITĂŢII „LUCIAN BLAGA”
SIBIU, 2015
Copertă şi tehnoredactare: Remus C-tin Butănescu-Volanin

Referenţi ştiinţifici:

Prof. dr. ec. Dr. H. C. Ioan Bogdan, Universitatea „Lucian Blaga” din
Sibiu & Universitatea Româno-Americană din Bucureşti

Prof. dr. ing. şi ec. Ioan Abrudan, Universitatea Tehnică din Cluj-Napoca

Prof. dr. ing. Călin Deneș, Universitatea „Lucian Blaga” din Sibiu

 Butănescu-Volanin Remus C-tin

Descrierea CIP a Bibliotecii Naţionale a României


BUTĂNESCU-VOLANIN, REMUS-CONSTANTIN
Probabilități și statistică matematică cu aplicații în economie /
Butănescu-Volanin Remus. - Sibiu : Editura Universităţii ”Lucian Blaga”
din Sibiu, 2015
Bibliogr.
ISBN 978-606-12-1136-4

519.22.33
CUPRINS

CAPITOLUL 1. Probabilităţi și operații cu probabilități 7

1.1. Probabilităţi 9

1.2. Cuantificarea probabilităților 9

CAPITOLUL 2. Variabile aleatoare și funcții


23
probabilistice

2.1. Introducere: Ce sunt variabilele aleatoare? 25

2.2. Funcţiile probabilistice 26

2.3. Valoarea așteptată și varianța unei variabile aleatoare 46

2.4. Covarianța a două variabile aleatoare 48

2.5. Valoarea așteptată și varianța sumei și produsului unor


49
variabile aleatoare
2.6. Momentele variabilelor aleatoare. Funcția generatoare de
66
momente pentru o variabilă aleatoare

2.7. Funcții de variabile aleatoare 78

CAPITOLUL 3. Distribuții probabilistice discrete 95

3.1. Distribuţiile „Bernoulli” 97

3.2. Distribuţiile binomiale 99

3.3. Distribuţiile multinomiale 117

3.4. Distribuţiile binomiale negative 119

5
3.5. Distribuţiile geometrice 127

3.6. Distribuţiile hipergeometrice 128

3.7. Distribuţiile hipergeometrice multivariate 142

3.8. Distribuţiile Poisson 143

CAPITOLUL 4. Distribuții probabilistice continue 173

4.1. Distribuţiile continue uniforme 175

4.2. Distribuţiile gamma 180

4.3. Distribuţiile exponențiale 182

4.4. Distribuţiile Helmert-Pearson (χ 2 - hi-pătrat) 192

4.5. Distribuţiile beta 196

4.6. Distribuţiile normale 201

4.7. Distribuţiile log-normale 224

CAPITOLUL 5. Distribuții de eșantionare 229

5.1. Distribuția de eșantionare a mediilor (distribuțía


231
variabilei )

5.2. Teorema limitei centrale 254

5.3. Distribuții de eșantionare speciale (χ 2, t și F) 255

BIBLIOGRAFIE SELECTIVĂ 285

6
PROBABILITĂŢI
ȘI
OPERAȚII CU
PROBABILITĂȚI
1.

OBIECTIVELE CAPITOLULUI
Obiectivul principal al acestui capitol este de a expune conceptele de bază folosite
în teoria probabilităţilor, ajutându-vă:
 să înţelegeţi conceptul de probabilitate;
 să rețineți diferitele modalități de cuantificare a probabilităților;
 să deprindeţi operaţiile aditive şi multiplicative cu probabilităţi;
 să înțelegeți teorema lui Bayes și să dobândiți abilitatea de a o folosi în
determinarea probabilităților „a posteriori”.
8
1.1. Probabilităţi
Probabilitatea este o măsură a posibilității ca un anumit eveniment să se
producă.
În expresie matematică, această măsură îmbracă forma unui număr care
aparține intervalului de variaţiei probabilistică [0, 1]. Cazurile extreme ale
variaţiei probabilistice sunt date de imposibilitate şi, respectiv, de
necesitate. Astfel, valoarea de 0 a probabilității matematice corespunde
evenimentelor imposibil să se producă, în timp ce probabilitatea de 1
caracterizează evenimentele necesare. O probabilitate foarte apropiată de 0
arată faptul că sunt șanse foarte mici ca evenimentul aflat în discuție să se
producă, așa cum o probabilitate foarte apropiată de 1 indică faptul că este
aproape sigur că acesta va avea loc.

1.2. Cuantificarea probabilităților


Pentru a putea cuantifica probabilitățile asociate unei anumite situații, este
foarte important să se definească exact experimentul probabilistic care stă
la baza acestei situații, precum și rezultatele care pot să apară în urma
acestui experiment.
În general, experimentele sunt capabile de repetare în anumite condiții care
sunt în mod esențial stabile. Din punct de vedere probabilistic însă,
repetarea unui experiment poate să fie și una doar abstractă și teoretică. De
exemplu, o investiție financiară poate fi considerată un experiment
probabilistic și atunci când nu se intenționează realizarea ei decât o singură
dată. Asemănător, admiterea la un examen poate fi abordată ca un
experiment probabilistic cu toate că acel examen nu se va desfășura decât o
singură dată. Pentru a fi considerată ca atare, ne putem imagina ce s-ar fi
întâmplat dacă examenul s-ar fi reluat încă o dată, de 2, 3, 4 sau chiar de
nenumărate ori.
În strânsă legătură cu conceptul de probabilitate, este important de observat
faptul că definiția experimentului probabilistic acoperă situații care implică
întotdeauna incertitudine, indiferent dacă acestea se repetă efectiv sau doar
ipotetic.
Atunci când se definește un experiment, este foarte importantă precizarea
tuturor procedurilor asociate cu acesta. De exemplu, ar fi ambiguu dacă am
defini ca și experiment probabilistic „extragerea a două bile dintr-o urnă”.
Pentru a fi definit exact experimentul probabilistic în legătură cu extragerea
a două bile dintr-o urnă trebuie precizat dacă după fiecare extragere a câte
unei bile aceasta este sau nu este introdusă înapoi în urnă. Această
9
precizare este importantă întrucât probabilitățile asociate diferitelor rezultate
posibile vor fi diferite în cele două situații considerate.

Spațiile de selecție
Diferitele rezultate posibile ale unui experiment se numesc puncte de
selecție, iar acestea toate alcătuiesc împreună ceea ce se numește un spațiu
de selecție.
Să presupunem, de exemplu, experimentul observării profitabilității unei
companii într-un anumit an. În legătură cu acest experiment se pot considera
numeroase tipuri de spații de selecție. Dintre acestea să ne oprim asupra
unui spațiu cu doar două puncte de selecție, și anume: „compania a obținut
în anul respectiv profit” și „compania nu a obținut în anul considerat profit”.
Dacă experimentul ar fi constat în observarea profitabilității pe parcursul a
doi ani consecutivi, un spațiu de selecție ar putea fi compus din următoarele
4 puncte de selecție:
a) (anul 1 – profit, anul 2 – profit);
b) (anul 1 – profit, anul 2 – fără profit)
c) (anul 1 – fără profit, anul 2 – profit)
d) (anul 1 – fără profit, anul 2 – fără profit)

Modalități de cuantificare a probabilităților


Se poate vorbi despre 3 abordări posibile în efortul de cuantificare a
probabilității asociate unui eveniment:
1) Abordarea clasică (teoretică). Această abordare a fost îmbrățișată încă
de la începuturile teoriei probabilităților în legătură cu jocurile de noroc.
Considerînd, astfel, o mulțime de evenimente posibile în urma unui
asemenea joc, având fiecare aceeași șansă de apariție (sunt echiprobabile),
probabilitatea apariției unui anumit rezultat se poate calcula simplu ca și
raport între numărul de evenimente care sunt favorabile producerii acestui
rezultat (n) și numărul total de evenimente posibile (N). De pildă,
probabilitatea de apariție a unui număr par la extragerea aleatoare a unui
număr din totalul numerelor naturale de la 1 la 49 este egală cu 24 / 49 ≈
0,4898 (din totalul celor 49 de numere, 24 sunt numere pare). În mod
asemănător, probabilitatea de a obține un număr mai mare sau egal cu 5 la
aruncarea cu un zar este egală cu 2 / 6 = 0,3333 (din totalul celor 6 fețe
ale unui zar, 2 sunt favorabile rezultatului avut în vedere);
2) Abordarea experimentală. În cadrul acestei abordări, probabilitățile sunt
echivalate cu frecvențe statistice relative constatate pe termen lung. De
10
exemplu, în urma analizei de calitate a 1000 de produse realizate pe o linie
de fabricație, constatarea faptului că 900 dintre acestea sunt fără defecte,
iar 100 sunt rebuturi, determină, în cadrul acestei abordări, considerarea
pentru viitor a unei probabilități de 0,1 pentru realizarea unui rebut și de
0,9 pentru obținerea unui produs bun;
3) Abordarea subiectivă. În acest caz, probabilitatea estimată pentru
manifestarea unui eveniment reflectă gradul în care cineva crede că acesta
va avea loc. Această estimare se poate baza pe experiență personală, pe
intuiție sau pe fler.

Diagrama Venn
În ce privește abordarea clasică a cuantificării probabilității asociate unui
eveniment, un instrument foarte util se poate dovedi diagrama Venn.
Pentru exemplificare, să considerăm că din totalul celor 267 angajaţi TESA
ai unei companii, 116 sunt ingineri (nI), 98 sunt economişti (nE) şi 14 sunt
şi ingineri şi economişti (nI si E). Folosind diagrama Venn din figura 1.1,
putem cuantifica probabilitatea ca la selectarea la întâmplare a unui angajat,
acesta să nu aibă pregătire inginerească sau economică. Pentru aceasta,
trebuie să determinăm mai întâi numărul angajaţilor care nu au pregătire
inginerească sau economică.
Aşa cum se poate vedea în diagrama Venn, numărul angajaţilor care sunt
ingineri fără a fi şi economişti este:

În mod asemănător, numărul angajaţilor care sunt economişti fără a fi şi


ingineri este:

Aşadar, numărul angajaţilor care sunt ingineri, economişti sau ambele este:

Aceasta înseamnă că numărul angajaţilor care n-au pregătire inginerească


sau economică (nA) este:

Conform aceastui rezultat, probabilitatea ca la selectarea la întâmplare a


unui angajat, acesta să nu aibă pregătire inginerească sau economică este
egală cu 67 / 267 ≈ 0,2509.

11
Figura 1.1 Diagrama Venn

Reguli de adunare a probabilităților


Diagrama Venn poate fi utilă și în înțelegerea regulilor de adunare a
probabilităților.
Folosind, de pildă, rezultatele din exemplul anterior, se poate cuantifica, de
această dată, probabilitatea ca angajatul selectat să aibă pregătire
inginerească (I) sau economică (E). Astfel, această probabilitate este:

Probabilitatea găsită se poate obține și pe baza regulii generale de adunare a


probabilităților. Această regulă se poate deduce pornind de la diagrama
Venn. Astfel, pentru exemplul nostru, conform relațiilor pe care le-am
identificat cu ajutorul diagramei Venn se poate scrie că:

Împărțind toțí termenii din noua relație obținută la N, rezultă că:

12
Așadar, probabilitatea ca angajatul selectat să aibă pregătire inginerească
(I) sau economică (E) se mai poate calcula astfel:

(folosind notațiile obișnuite în teoria mulțimilor)

Această relațíe se poate generaliza pentru orice două evenimente


compatibile, i.e. evenimente care se pot manifesta simultan. Referindu-ne la
exemplul nostru, putem spune că pregătirea economică este compatibilă cu
pregătirea inginerească, întrucât probabilitatea ca un angajat selectat la
întâmplare să aibă ambele pregătiri (I ∩ E) nu este nulă (întrucât din cei
267 angajați care compun personalul TESA al companiei, 14 sunt și
ingineri și economiști, rezultă că această probabilitate este egală cu 14 /
267 ≈ 0,0524).
Putem cuantifica, de asemenea, probabilitatea ca angajatul selectat aleator
să aibă o pregătire inginerească (I) sau o altă pregătire în afara celei
inginerești sau economice (A):

Această relațíe se poate generaliza pentru orice două evenimente


incompatibile, i.e. evenimente care nu se pot manifesta simultan, apariția
unuia excluzând apariția celuilalt, motiv pentru care se mai numesc și
evenimente mutual exclusive. Imposibilitatea de a se manifesta simultan
este echivalentă cu faptul că probabilitatea intersecției acestora este nulă (în
diagrama Venn a exemplului nostru, mulțimea angajaților cu pregătire

13
inginerescă și mulțimea angajaților cu altă pregătire în afara celei inginerești
sau economice nu au puncte de intersecție, i.e. I ∩ A = ).
Rezumând toate cele arătate, se poate enunța regula generală de adunare a
probabilităților de manifestare a două evenimente oarecare A și B:

Dacă evenimentele A și B sunt incompatibile, ceea ce înseamnă că A ∩ B


= , relația devine:

Pornind de la regula generală de adunare a probabilităților de manifestare a


două evenimente oarecare A și B, se poate deduce mai departe regula
generală de adunare a probabilităților de manifestare a trei evenimente
oarecare A, B și C:

(conform distributivitățíi intersecției mulțimilor în raport cu reuniunea lor)

14
Continuând același efort deductiv, se poate formula regula generală de
adunare a probabilităților pentru n evenimente oarecare (Ei , i = 1, 2 ...,
n}):

unde însumarea pentru i1 < i2 < ... < ir se face pentru toate combinările de n
luate câte r, posibile de format din cei r indici considerați din mulțimea de
indici 1, 2 ..., n}.

Probabilități condiționate
Să considerăm din nou exemplul prezentat cu ajutorul diagramei Venn din
figura 1.1 și să calculăm, de această dată, probabilitatea ca, în situația în
care după selectarea întâmplătoare a unui angajat se constată că acesta este
inginer, el să fie, de asemenea, și economist (P(E |I)). Întrucât numărul de
ingineri care sunt și economiști este de 14 (= număr de cazuri favorabile)
iar numărul total de ingineri este de 116 (= număr total de cazuri posibile),
se poate scrie, aplicând relația generală de cuantificare a probabilităților, că:

Împărțind la N ambii termeni ai ultimului raport se obține mai departe că:

Relația obținută se poate generaliza pentru probabilitatea condiţionată a


oricărui eveniment B de către un eveniment A (P(B|A)), prin aceasta
înţelegându-se probabilitatea de manifestare a evenimentului B dacă în
prealabil s-a realizat evenimentul A:

15
Reguli de înmulțire a probabilităților
Folosind relația generală de calcul a probabilității condiţionate a unui
eveniment B de către un eveniment A, se poate obține regula generală de
înmulțire a probabilităților pentru două evenimente A și B:

Revenind la exemplul nostru, se confirmă, astfel, că probabilitatea ca un


angajat selectat aleator să aibă și o pregătire inginerească și una economică
este de aproximativ 5,24%, așa cum s-a obținut și mai sus, în urma
raportării numărul de angajați TESA care sunt și ingineri și economiști (14),
la numărul total de angajați TESA ai companiei (267):

Pornind de la regula generală de înmulțire a probabilităților de manifestare a


două evenimente oarecare A și B, se poate deduce mai departe regula
generală de înmulțire a probabilităților de manifestare a trei evenimente
oarecare A, B și C:

Continuând același efort deductiv, se poate formula regula generală de


înmulțire a probabilităților pentru n evenimente oarecare (Ei , i = 1, 2 ...,
n}):

16
Dacă probabilitatea de manifestare a unui eveniment nu afectează
probabilitatea de apariție a unui alt eveniment, se spune că cele două
evenimente sunt independente. Dacă două evenimente A și B sunt
independente, atunci:

și

Aceasta înseamnă că regula de înmulțire a probabilităților pentru două


evenimente A și B independente este:

De exemplu, considerând o urnă în care se află 24 de bile albe și 16 bile


negre, probabilitatea extragerii pe rând a două bile albe trebuie calculată
diferit în cazul în care după fiecare extragere bila apărută nu este
reintrodusă în urnă față de cazul în care aceasta este reintrodusă în urnă.
În primul caz, probabilitatea de apariție a unei bile albe la cea de-a doua
extragere este condiționată de ceea ce se întâmplă la prima extragere, ceea
ce înseamnă că:

unde:
P(1a) reprezintă probabilitatea ca la prima extragere să apară o bilă albă;
P(2a) = probabilitatea ca la a doua extragere să apară o bilă albă;
P(2a|1a) = probabilitatea ca la a doua extragere să apară o bilă albă dacă
la prima extragere a apărut, de asemenea, o bilă albă. Această probabilitate
este egală cu 23 / 39, deoarece după extragerea unei bile albe, fără ca
aceasta să fie reintrodusă apoi în urnă, rămân în urnă doar 23 de bile albe
dintr-un total de 39 de bile albe și negre.
În cel de-al doilea caz, ca urmare a faptului că bilele sunt reintroduse în
urnă, probabilitatea de extragere a unei bile albe rămâne aceeași de la o

17
extragere la alta. Cele două evenimente sunt, așadar, independente, ceea ce
înseamnă că:

Pornind de la regula generală de înmulțire a probabilităților de manifestare a


două evenimente independente A și B, se poate deduce mai departe regula
generală de înmulțire a probabilităților de manifestare a n evenimente
independente:

Teorema lui Bayes sau teorema probabilităţilor cauzelor


Pentru ușurarea înțelegerii acestei foarte importante teoreme pentru
statistica probabilistică să considerăm un nou exemplu.
Să presupunem, astfel, că probabilitatea ca o companie angajată într-un
proiect de investiție să fie afectată în perioada care urmează de o grevă este
de 40%. Managementul companiei apreciază că în condițiile declanșării
grevei, probabilitatea de finalizare a investiției la termen este de doar
30%. De asemenea, se estimează că în condiții normale (în care greva nu
va avea loc) este 80% probabil ca finalizarea investiției să aibă loc la
termen. Care este probabilitatea ca investiția să fie finalizată la termen?
Pentru a rezolva această problemă, să notăm cu A evenimentul finalizării
investiției la termen și cu B evenimentul declanșării grevei în perioada care
urmează. Conform acestor notații, putem scrie că:

unde:
B’ reprezintă evenimentul complementar lui B, adică non-manifestarea
acestuia. Este evident că P(B) + P(B’) = 1.

18
Întrucât evenimentul A poate fi văzut ca o reuniune a evenimentelor A ∩ B
și A ∩ B’, înseamnă că:

(întrucât suma probabilităților a două evenimente complementare este egală


cu 1)

Așadar, probabilitea finalizării la termen a investiției este de 60%.


Acest gen de problemă este un caz particular al situațiilor în care într-o
etapă intermediară pot avea loc mai multe evenimente alternative, care
realizează o partiție.
Se spune că evenimentele B1, B2, ..., Bk realizează o partiție a unui spațiu
de selecție (S) dacă ele îndeplinesc următoarele condiții:

Generalizând raționamentul prezentat în exemplul nostru la nivelul unei


partiții formate din k asemenea evenimente (B1, B2, ..., Bk), se poate arăta
că pentru orice eveniment E dintr-un spațiu de selecție S:

19
Pe baza acestei relații se poate demonstra teorema lui Bayes*, teoremă
descoperită încă din secolul XVIII, și potrivit căreia:

unde:
r = 1, 2, ..., k.
Într-adevăr, pronind de la relația generală de calcul a unei probabilități
condiționate, se poate scrie:

(aplicând la numărătorul fracției relația generală de înmulțire a


probabilităților)

Revenind la exemplul nostru, să presupunem că aflăm post-factum că


investiția companiei nu a fost finalizată la termen fără a cunoaște dacă greva
a avut sau nu loc. Ceea ce putem face însă, este să calculăm a posteriori, cu
ajutorul teoremei lui Bayes, probabilitatea ca greva (o posibilă cauză a
nefinalizării la termen a investiției) să fi avut loc.
Astfel, putem scrie, folosind notațiile din exemplu, că:

*
Cf. Stephen M. STIGLER, Who Discovered Bayes's Theorem, The American Statistician, Vol. 37, No.
4, Part 1 (Nov. 1983), pp. 290-296, nu se poate ști cu siguranță dacă pastorul englez Thomas Bayes
(1702? - 1761) este într-adevăr cel care a descoperit primul această teoremă. Cu toate acestea, teorema
continuă să-i poarte numele...

20
Așadar, în condițiile în care se constată post-factum că investiția nu a fost
finalizată la termen, probabilitatea ca greva să fi avut loc este de 70%.
Pentru rezolvarea mai ușoară a unor astfel de probleme este utilă construirea
așa-numitului „arbore de probabilități”. Acesta este o reprezentare grafică
a evenimentelor problemei, împreună cu condiționările dintre ele și
probabilitățile asociate. În figura 1.2 este reprezentat un astfel de arbore de
probabilități pentru exemplul nostru.

Figura 1.2 Arbore de probabilități

Folosind arborele de probabilități reprezentat în figura 1.2, se poate calcula


în continuare probabilitatea a posteriori ca greva să fi avut loc în condițiile
în care se constată post-factum că investiția s-a finalizat, de această dată, la
termen:

21
Așadar, în condițiile în care se constată post-factum că investiția a fost
finalizată la termen, probabilitatea ca greva să fi avut loc este de 20%.

22
VARIABILE ALEATOARE
ȘI
FUNCȚII
PROBABILISTICE
2.

OBIECTIVELE CAPITOLULUI
 să înțelegeți ce sunt variabilele aleatoare și să distingeți între variabilele
aleatoare discrete și cele continue;
 să rețineți în ce constau funcțiile probabilistice asociate variabilelor aleatoare;
 să înțelegeți ce este și cum se determină valoarea așteptată și, respectiv,
varianța unei variabile aleatoare, precum și relațiile de determinare a valorii
așteptate și varianței sumei și produsului unor variabile aleatoare;
 să înțelegeți ce sunt și cum se determină momentele unei variabile aleatoare;
 să rețineți cum se obține și cum se poate folosi funcția generatoare de momente
a unei variabile aleatoare.
24
2.1. Introducere: Ce sunt variabilele aleatoare?
O variabilă aleatoare (intâmplătoare) este o funcție reală definită pe
mulțimea evenimentelor elementare asociate unui experiment probabilistic.
Aceasta înseamnă că variabilele aleatoare* sunt variabile ale căror valori se
înregistrează probabilistic, adică fără a putea fi prezise cu certitudine.
Probabilitățile asociate valorilor posibile ale variabilelor aleatoare pot fi
descrise de diferite funcții probabilistice. De exemplu, o variabilă aleatoare
X este descrisă de o funcție de probabilitate uniformă dacă poate înregistra
echiprobabil (i.e. cu aceeași probabilitate) orice valoare dintr-un interval
[a, b] de valori.
Variabilele aleatoare se împart în variabile aleatoare discrete și continue.
O variabilă aleatoare discretă este o funcție discontinuă, ea putând înregistra
doar valori punctuale. De exemplu, pentru experimentul aruncării cu un zar
se poate considera variabila aleatoare discretă definită pe mulțimea
numerelor întregi de la 1 la 6, corespunzătoare celor 6 fețe ale zarului.
O variabilă aleatoare continuă poate înregistra un număr infinit de valori
nenumărabile x care aparțin unui interval cuprins între două puncte a şi b (a
< x < b). Ele se definesc în legătură cu măsurarea unor mărimi (precum
greutatea, lungimea, înălţimea, temperatura sau presiunea).
Orice funcție de variabile aleatoare este și ea o variabilă aleatoare.

Variabile aleatoare independente


Foarte important pentru statistica probabilistică este conceptul de
independență între două sau mai multe variabile aleatoare.
Două variabile aleatoare se numesc independente dacă toate evenimentele
elementare pe care le descrie probabilistic una dintre acestea sunt
independente față de evenimentele elementare descrise probabilistic de
cealaltă variabilă. În capitolul 1 al lucrării de față s-a arătat faptul că două
evenimente sunt independente între ele dacă probabilitățile lor de
manifestare nu se condiționeză între ele.
O proprietate importantă în legătură cu independența dintre două variabile
aleatoare constă în faptul că aceasta determină și independența dintre
variabilele aleatoare construite ca și funcții ale acestora. Astfel, dacă două
variabile aleatoare X și Y sunt independente, atunci și variabilele aleatoare
V = v(X) și W = w(Y) sunt două variabile aleatoare independente.

*
În această lucrare, variabilele sunt notate cu litere mari. De regulă, acestea sunt litere de la sfârșitul
alfabetului.

25
2.2. Funcţiile probabilistice
Probabilitățile asociate variabilelor aleatoare pot fi descrise cu ajutorul
următoarelor tipuri de funcții:
a) Funcții de probabilitate. Aceste funcții descriu probabilitățile asociate
variabilelor aleatoare discrete, stabilind legătura dintre valorile punctuale pe
care le pot înregistra acestea și probabilitățile respective;
b) Funcții de densitate probabilistică. Ele descriu probabilitățile asociate
variabilelor aleatoare continue;
c) Funcții de distribuție probabilistică. Acestea descriu probabilitățile
cumulate până la o anumită valoare particulară pe care o poate înregistra
variabila considerată.
Toate aceste funcții probabilistice pot fi univariate (asociate unei singure
variabile aleatoare), bivariate (asociate la două variabile aleatoare,
considerate simultan) sau chiar multivariate (asociate la mai mult de două
variabile aleatoare, considerate simultan).

Funcţiile univariate de probabilitate


Funcţiile de probabilitate descriu probabilitățile asociate valorilor particulare
pe care le pot înregistra variabilele aleatoare discrete, adică variabile care au
fie un număr finit de valori posibile (de exemplu, x = 0, 1, 2, ..., n), fie un
număr infinit de valori numărabile (de exemplu, x = 0, 1, 2, ...).
Astfel, dacă o variabilă aleatoare discretă X este definită pe un domeniu de
valori D, atunci funcția ei de probabilitate este dată de:

O funcţie poate servi ca şi funcţie (univariată) de probabilitate a unei


variabile aleatoare discrete X definită pe un domeniu de valori D, dacă şi
numai dacă valorile sale, f (x), satisfac următoarele două condiţii:

Să verificăm, de exemplu, dacă funcţia de mai jos poate servi ca şi funcţie


de probabilitate a unei variabile aleatoare:

26
pentru x = 1, 2, 3, 4, 5, 6, 7.
Substituind cele 5 valori pe care le poate lua x obţinem:

Întrucât toate valorile înregistrate de f (x) sunt non-negative, înseamnă că


prima condiţie pentru ca funcţia să poată fi o funcţie de probabilitate este
îndeplinită. Verificăm dacă este îndeplinită şi cea de-a doua condiţie (suma
tuturor valorilor înregistrate să fie egală cu 1):

Fiind îndeplinită şi cea de-a doua condiţie, rezultă că funcţia considerată


poate fi o funcţie de probabilitate. Desigur, dacă există într-adevăr o
variabilă aleatoare care să urmeze o astfel de distribuţie a probabilităţilor
este o cu totul altă problemă.

27
Să determinăm acum o funcţie de probabilitate pentru variabila X a
numărului total de apariţii ale banului la realizarea experimentului care
constă în aruncarea de 5 ori a unei monede. Pentru aceasta, construim mai
întâi tabelul 2.1, care descrie elementele componente ale spaţiului de
probabilitate pentru acest experiment, la care sunt asociate probabilităţile
corespunzătoare şi valoarea x a variabilei numărului de apariţii ale banului.
Întrucât spaţiul de probabilitate este compus din 32 de elemente cu şanse
egale de manifestare, fiecare dintre aceste elemente are o probabilitate de
manifestare egală cu 1/32:

Tabelul 2.1
Elementul din Numărul de
spaţiul de apariţii ale banului Probabilitatea
probabilitate (x)

BBBBB 5

BBBBS 4

BBBSB 4

BBSBB 4

BSBBB 4

SBBBB 4

BBBSS 3

BBSBS 3

28
Tabelul 2.1 - continuare

BSBBS 3

SBBBS 3

BBSSB 3

BSBSB 3

SBBSB 3

BSSBB 3

SBSBB 3

SSBBB 3

BBSSS 2

BSBSS 2

SBBSS 2

BSSBS 2

SBSBS 2

29
Tabelul 2.1 - continuare

SSBBS 2

BSSSB 2

SBSSB 2

SSBSB 2

SSSBB 2

BSSSS 1

SBSSS 1

SSBSS 1

SSSBS 1

SSSSB 1

SSSSS 0

Folosind regula de adunare a probabilităţilor pentru evenimente


incompatibile, se obţin următoarele probabilităţi pentru valorile x pe care le
poate înregistra variabila aleatoare X:

30
Se poate observa faptul că numărătorul fiecăreia dintre fracţiile care
determină probabilităţile de mai sus este egal cu numărul de combinări de 5
luate câte x.
Prin urmare, se poate presupune că o funcţie de probabilitate pentru
variabila numărului total de apariţii ale banului la realizarea experimentului
care constă în aruncarea de 5 ori a unei monede este:

unde x = 0, 1, 2, 3, 4 şi 5.
Întrucât numărul de combinări de 5 luate câte x este pozitiv pentru orice
valoare posibilă a lui x, înseamnă că este îndeplinită prima condiţie necesară
pentru ca această funcţie să poate fi o funcţie de probabilitate.
Cunoscând faptul că suma combinărilor de n luate cât x este egală cu 2n,
rezultă că şi cea de-a doua condiţie necesară pentru ca această funcţie să
poate fi o funcţie de probabilitate este îndeplinită:

31
Fiind îndeplinite ambele condiţii necesare, putem afirma că această funcţie
poate fi o funcţie de probabilitate pentru variabila aleatoare considerată.

Funcţiile bivariate și multivariate de probabilitate


Unei perechi de variabile aleatoare discrete X și Y i se poate asocia o
funcție bivariată de probabilitate. O funcţie poate servi ca şi funcţie
bivariată de probabilitate a unei perechi de variabile aleatoare discrete X și
Y, definită pe domeniile de valori DX și, respectiv, DY dacă şi numai dacă
valorile sale, f (x, y), satisfac următoarele două condiţii:

În mod asemănător, condițiile care trebuie îndeplinite de o funcție


multivariată f (x1, x2, ..., xn) pentru a putea servi ca și funcție multivariată
de probabilitate asociată unui set de variabile aleatoare discrete X1, X2, ...,
Xn, definite pe domeniile de valori DX1, DX2, ..., DXn, sunt următoarele:

O proprietate importantă este cea conform căreia funcția bivariată de


probabilitate a două variabile discrete independente este egală cu produsul
funcțiilor univariate (sau marginale) de probabilitate ale celor două
variabile:

Se poate observa că această proprietate este o consecință a relației de


înmulțire a probabilităților pentru evenimente independente (a se vedea
capitolul 1).

32
Variabilele aleatoare ale sumei și produsului a două variabile aleatoare
discrete
Considerând simultan variabila aleatoare discretă X, care poate înregistra
valorile x  DX, și variabila aleatoare discretă Y, care poate înregistra
valorile y  DY, se pot defini variabilele aleatoare ale căror valori sunt
egale cu suma sau produsul tuturor perechilor de valori (x, y)  (DX х
DY).
Funcția de probabilitate asociată fiecăreia dintre aceste variabile este
funcția bivariată de probabilitate a variabilelor X și Y.

Funcţiile univariate de densitate probabilistică


Funcţiile de densitate probabilistică sunt funcții de probabilitate pentru
variabilele aleatoare continue. Spre deosebire de variabilele aleatoare
discrete, variabilele aleatoare continue se caracterizează, așa cum s-a arătat
deja la începutul acestui capitol, printr-un număr infinit de valori
nenumărabile, putând înregistra orice valoare x de pe un interval cuprins
între două puncte a şi b (a < x < b). În timp ce variabilele aleatoare
discrete implică, de obicei, numărarea apariţiilor sau manifestărilor unui
fenomen, variabilele aleatoare continue implică măsurarea unor mărimi.
Dacă pentru o variabilă discretă putem realiza o listă parţială sau totală a
valorilor particulare pe care aceasta le poate înregistra, însoţite de
probabilităţile lor de apariţie, pentru o variabilă continuă nu are sens să
facem acest lucru deoarece probabilitatea de apariţie a unei valori punctuale
(P (X = x)) este întotdeauna egală cu 0. Deşi acest fapt este aparent
ciudat, el devine de înţeles dacă ne gândim că nu putem asocia probabilităţi
pozitive unui număr infinit de valori cu condiţia ca suma acestui număr
infinit de probabilităţi să ne dea 1 (la fel se întâmplă, precum se ştie, în
cazul unui segment şi, respectiv, al unui punct al acestuia: în timp ce
segmentului i se poate calcula o lungime cu o valoare pozitivă, un punct
oarecare al acestuia are întotdeauna o lungime egală cu 0).
Prin urmare, pentru o variabilă aleatoare continuă are sens să vorbim doar
despre probabilitatea ca valoarea acesteia să aparţină unui interval de
valori.
Când avem de-a face cu o variabilă aleatoare continuă X, care poate lua
înregistra orice valoare x aparţinând mulţimii numerelor reale R, ne
interesează să găsim o funcţie f (x) denumită funcţie (univariată) de
densitate probabilistică, pentru care sunt îndeplinite următoarele două
condiţii:

33
Probabilitatea ca o variabilă X, a cărei funcţie de densitate probabilistică
este f (x), să înregistreze o valoare care aparţine unui interval [a, b] este
egală cu:

Să verificăm, de exemplu, dacă funcţia de mai jos poate servi ca şi funcţie


de densitate probabilistică a unei variabile aleatoare:

Prima condiţie necesară este îndeplinită, deoarece:

şi, de asemenea,

34
Cea de-a doua condiţie necesară îmbracă, pentru funcţia considerată, forma:

Pentru a verifica dacă este îndeplinită şi această condiţie, trebuie să


calculăm cele două integrale definite:

Asemănător,

35
Aşadar, rezultă că:

Întrucât se constată că se îndeplinesc ambele condiţii necesare, se poate


afirma că funcţia considerată poate servi ca şi funcţie de densitate
probabilistică a unei variabile aleatoare. Graficul acestei funcţii este
reprezentat în figura 2.1.

Figura 2.1

Aria de sub graficul funcţei reprezentată în figura 2.1 este egală, conform
celor obţinute mai sus, cu 1. Această valoare se poate obţine şi pe baza
observaţiei că sub graficul funcţiei se formează, împreună cu axele
sistemului de coordonate, două triunghiuri dreptunghice care au fiecare aria
egală cu (0,25 · 4) / 2 = 0,5 .
Să determinăm acum probabilitatea ca variabila X să înregistreze o valoare
oarecare din intervalul [2, 5]. Această probabilitate este:

36
f(2) = 0,125

Figura 2.2

Acest rezultat se poate obţine şi pe baza observaţiei că probabilitatea


căutată este egală cu aria triunghiului dreptunghic haşurat din figura 2.2.
Una dintre catetele acestui triunghi dreptunghic este egală cu 2 (i.e.
diferenţa dintre x = 4 şi x = 2). Cealaltă catetă este egală cu:

37
Prin urmare, aria triunghiului dreptunghic haşurat din figura 2.2 este egală
cu (2 · 0,125) / 2 = 0,125 , ceea ce confirmă valoarea probabilităţii
căutate.
O familie de funcții cu aplicații importante în statistica probabilistică este
dată de relația:

unde:
α > 0;
β > 0.
Pentru a putea fi folosite în aceste aplicații, trebuie mai întâi definite valorile
lui k pentru care aceste funcții pot fi unele de densitate probabilistică.
Prima condițíe pentru ca aceste funcții să fie unele de densitate
probabilistică impune ca valoarea lui k să fie una pozitivă.
Cea de-a doua condiție îmbracă forma:

Valorile lui k pentru care este satisfăcută această condiție se pot obține
făcând substituția y = x / β.
Se poate scrie, astfel:

38
Ultima integrală obținută este însă chiar funcția gamma definită de
parametrul α, Γ (α).
Se obține, așadar, că:

Prin urmare, se obține familia de funcții de densitate probabilistică, dată de


relația:

unde:
α > 0;
β > 0.
Importanța deosebită a acestor funcții decurge din faptul că ele se constituie
ca și funcții de densitate probabilistică pentru orice variabilă aleatoare
distribuită după o distribuție probabilistică gamma.
O variabilă aleatoare este o variabilă aleatoare gamma dacă și numai dacă
funcția ei de densitate probabilistică este o funcție de densitate
probabilistică gamma.
În capitolul 4 vor fi prezentate cele mai importante distribuții probabilistice
gamma, precum și principalele lor caracteristici.
O altă familie de funcții cu aplicații importante în statistica probabilistică
este cea a funcțiilor beta, funcții aflate în strânsă legătură cu funcțiile
gamma, ele fiind descrise de relația generală:

unde:
39
x > 0;
y > 0.
O proprietate importantă a acestor funcții constă în faptul că ele pot fi
reprezentate și sub forma unor integrale. Una dintre aceste reprezentări este
dată de relația*:

unde:
x > 0;
y > 0.
Pe baza funcțiilor beta și ținând cont de cele două relații de mai sus, se
poate construi familia de funcții de densitate probabilistică beta:

unde:
α > 0;
β > 0.
Se poate observa destul de ușor faptul că cele două condiții necesare pentru
ca aceste funcții să poată juca rolul unor funcții de densitate probabilistică
sunt, într-adevăr, îndeplinite.
Astfel, aceste funcții iau valori mai mari sau egale cu zero, întrucât toți
termenii din care sunt compuse sunt egali sau mai mari decât zero.
În ce privește cea de-a doua condiție necesară, se verifică faptul că:

*
Demonstrația acestei relații depășește scopul lucrării de față.

40
O variabilă aleatoare este o variabilă aleatoare beta dacă și numai dacă
funcția ei de densitate probabilistică este o funcție de densitate
probabilistică beta. În capitolul 4 vor fi prezentate cele mai importante
caracteristici ale unei distribuții beta, precum și un caz particular important
de distribuție beta, i.e. distribuția beta uniformă (distribuția beta cu
parametrii α = 1 și β = 1).

Funcțiile bivariate și multivariate de densitate probabilistică


Unei perechi de variabile aleatoare continue X și Y, i se poate asocia o
funcție bivariată de densitate probabilistică. Condițiile care trebuie
îndeplinite de o funcție bivariată f (x, y) pentru a putea servi ca și funcție
bivariată de densitate probabilistică sunt următoarele:

În mod asemănător, condițiile care trebuie îndeplinite de o funcție


multivariată f (x1, x2, ..., xn) pentru a putea servi ca și funcție multivariată
de densitate probabilistică asociată unui set de variabile aleatoare continue
X1, X2, ..., Xn, sunt următoarele:

41
Un exemplu de funcție care poate servi ca și funcție bivariată de densitate
probabilistică este:

Este evident că prima proprietate necesară pentru ca această funcție să


poată servi ca și funcție bivariată de densitate probabilistică este îndeplinită.
Cea de-a doua proprietate necesară este, de asemenea, îndeplinită:

Pornind de la funcția bivariată de densitate probabilistică a două variabile X


și Y, se pot obține funcțiile univariate sau marginale de densitate
probabilistică ale celor două variabile cu ajutorul relațiilor:

42
unde:
f (x, y) reprezintă funcția bivariată de densitate probabilistică a variabilelor
X și Y;
g (x) este funcția univariată sau marginală de densitate probabilistică a
variabilei X;
h (y) este funcția univariată sau marginală de densitate probabilistică a
variabilei Y.
Revenind la exemplul nostru se obține că:

43
O proprietate importantă este cea conform căreia funcția bivariată de
densitate probabilistică a două variabile independente X și Y este egală cu
produsul funcțiilor univariate (sau marginale) de densitate probabilistică ale
celor două variabile:

Funcțiile de distribuție probabilistică


Aceste funcții descriu probabilitățile cumulate până la o anumită valoare
particulară pe care o poate înregistra variabila considerată.
Dacă X este o variabilă aleatoare discretă iar f (t) este valoarea pe care o
înregistrează funcția ei de probabilitate pentru X = t, atunci funcția dată
de:

se numește funcția de distribuție probabilistică a variabilei discrete X.


În conformitate cu proprietățile generale ale probabilităților, valorile
înregistrate de funcția de distribuție probabilistică F (x) a variabilei
aleatoare discrete X, îndeplinesc următoarele condiții:

Mai mult, dacă domeniul de definiție (D) al variabilei X constă în valorile


x1 < x2 < ... < xn, atunci sunt valabile și relațíile:

44
Dacă X este o variabilă aleatoare continuă iar f (t) este valoarea pe care o
înregistrează funcția ei de densitate probabilistică pentru X = t, atunci
funcția dată de:

se numește funcția de distribuție probabilistică a variabilei continue X.


În conformitate cu proprietățile generale ale probabilităților, valorile
înregistrate de funcția de distribuție probabilistică F (x) a variabilei
aleatoare continue X îndeplinesc următoarele condiții:

Mai mult, atunci când derivata lui F (x) există, este îndeplinită și condiția:

unde f (x) este funcția de densitate probabilistică a variabilei X.


Unei perechi de variabile aleatoare i se poate asocia o funcție bivariată de
distribuție probabilistică. De asemenea, unui set de variabile aleatoare i se
poate asocia o funcție multivariată de distribuție probabilistică.
O proprietate importantă este cea potrivit căreia funcția bivariată de
distribuție probabilistică pentru două variabile aleatoare, X și Y,
independente, este egală cu produsul funcțiilor univariate de distribuție
probabilistică (denumite, dintr-un motiv care se va contura în paragraful 2.5,
și funcții marginale de distribuție probabilistică) ale acestora:

unde:
F (x, y) reprezintă funcția bivariată de distribuție probabilistică pentru
variabilele aleatoare X și Y;
F (x) = funcția univariată de distribuție probabilistică pentru variabila
aleatoare X;

45
F (y) = funcția univariată de distribuție probabilistică pentru variabila
aleatoare Y.
În paragraful 2.5 este exemplificată această proprietate pentru două
variabile aleatoare independente discrete.

2.3. Valoarea așteptată și varianța unei variabile aleatoare


Cele mai importante valori sau statistici cu ajutorul cărora se poate descrie o
variabilă aleatoare sunt valoarea așteptată, adică valoarea sa medie
probabilă, și varianța acesteia, adică valoarea medie probabilă a pătratelor
abaterilor posibile de la valoarea așteptată.
Relațiile de determinare a valorii așteptate a unei variabile aleatoare sunt:
a) pentru variabile aleatoare discrete:

unde:
E (x) este valoarea așteptată* a variabilei X;
D este domeniul de valori pe care le poate înregistra variabila X;
f (x) = funcția de probabilitate a variabilei aleatoare discrete X.
b) pentru variabile aleatoare continue:

unde:
f (x) este funcția de densitate probabilistică asociată variabilei aleatoare
continue X.
Pornind de la relațiile de mai sus, este ușor de observat faptul că valoarea
așteptată a unei constante (C) este egală cu acea constantă:

*
Întrucât valoarea așteptată este o medie aritmetică, o notație alternativă pentru această valoare este ,
simbolul mediei aritmetice. Litera E este folosită în statistica probabilistică deoarece ea este inițiala
denumirii în engleză a valorii așteptate, i.e. „Exprected value”.

46
Ținând cont de acest fapt se poate obține o proprietate importantă a valorii
așteptate, conform căreia:

unde:
A și B sunt două constante.
Relațiile de determinare a varianței unei variabile aleatoare sunt:
a) pentru variabile aleatoare discrete:

unde:
 = E (X);
f (x) = funcția de probabilitate a variabilei aleatoare discrete X.
b) pentru variabile aleatoare continue:

unde:
 = E (X);
f (x) este funcția de densitate probabilistică asociată variabilei aleatoare
continue X.
Varianța unei variabile aleatoare oarecare X se poate determina și cu
următoarea relație de calcul simplificat:

Această relație este demonstrată în paragraful 2.6 al acestui capitol.


Pornind de la această relație și țínând cont de proprietățile valorii așteptate,
se poate obține și o proprietate importantă a varianței, conform căreia:

47
Varianța este echivalentă cu pătratul unei alte valori foarte importante în
statistica inferențială, i.e. abaterea standard * ( ) a variabilei considerate.
Acesta este motivul pentru care varianța unei variabile aleatoare X se mai
notează și cu  (X).
2

2.4. Covarianța a două variabile aleatoare


Prin covarianța a două variabile aleatoare se înțelege valoarea medie
probabilă a produselor abaterilor posibile de la valorile așteptate ale celor
două variabile.
Relațiile de determinare a covarianței a două variabile aleatoare sunt:
a) pentru variabile aleatoare discrete:

b) pentru variabile aleatoare continue:

Covarianța a două variabile aleatoare oarecare X și Y se poate determina și


cu următoarea relație de calcul simplificat:

*
Abaterea standard este media pătratică a abaterilor față de valoarea așteptată a tuturor valorilor
probabile pe care o variabilă le poate înregistra.

48
Această relație este demonstrată în paragraful 2.6 al acestui capitol.
Ținând cont de această relație și de proprietatea conform căreia valoarea
așteptată a produsului a două variabile aleatoare independente este egală cu
produsul valorilor așteptate ale acestora (a se vedea paragragul următor), se
obține că pentru două variabile aleatoare independente covarianța este nulă.

2.5. Valoarea așteptată și varianța sumei și produsului unor


variabile aleatoare
O importanță deosebită pentru statistica probabilistică o prezintă valoarea
așteptată și varianța sumei și, respectiv, produsului unor variabile aleatoare.

Valoarea așteptată a sumei unor variabile aleatoare (proprietatea de


liniaritate a valorii așteptate)
O proprietate importantă a valorii așteptate este cea de liniaritate, potrivit
căreia valoarea așteptată a sumei unor variabile aleatoare este egală cu suma
valorilor așteptate ale acestora.
Într-adevăr, dacă X și Y sunt două variabile aleatoare discrete, se poate
scrie:

unde:
DX este domeniul de valori pe care le poate înregistra variabila X;
DY este domeniul de valori pe care le poate înregistra variabila Y;
49
f (x, y) = P (X = x, Y = y) reprezintă funcția bivariată de probabilitate a
celor două variabile, X și Y;
f (x) = P (X = x) reprezintă funcția univariată sau marginală de
probabilitate a variabilei X;
f (y) = P (Y = y) reprezintă funcția univariată sau marginală de
probabilitate a variabilei Y.
În demonstrația de mai sus au fost folosite relațiile existente între funcțiile
univariate sau marginale de probabilitate a variabilelor discrete X și Y și
funcția bivariată de probabilitate a acestora:

De asemenea, dacă X și Y sunt două variabile aleatoare continue, se poate


scrie:

50
În demonstrația de mai sus au fost folosite relațiile existente între funcțiile
univariate sau marginale de probabilitate a variabilelor continue X și Y și
funcția bivariată de probabilitate a acestora:

Pornind de la egalitatea dintre valoarea așteptată a sumei a două variabile


aleatoare și suma valorilor așteptate ale acestora, se obține, de asemenea, și
următoarea relație importantă:

unde:
C este o constantă;
E (C) = C este valoarea așteptată a constantei C.
Pentru a exemplifica proprietatea de liniaritate în cazul a două variabile
aleatoare discrete, să considerăm datele din tabelul 2.2, privitoare la
greutatea măsurată la nivelul unui lot de 50 de pachete de pufuleți cu
surprize, obținută prin însumarea greutății pufuleților din pachete (variabila
X) și a greutății jucăriilor-surpriză introduse în aceste pachete (variabila Y).
Pe baza acestor date putem determina valoarea așteptată a greutății la
extragerea aleatoare a unui pachet de pufuleți cu surprize, valoare utilă
companiei în efortul de îmbunătățire a managementului costurilor cu
transportul acestor produse.
Pentru aceasta trebuie construită mai întâi distribuția probabilistică bivariată
corespunzătoare acestor date. Aceasta este prezentată în tabelul 2.3.
Probabilitățile din acest tabel au fost calculate prin împărțirea frecvențelor
absolute înregistrate pentru fiecare combinație posibilă a greutăților într-un
pachet la numărul total de pachete (50).

51
Tabelul 2.2
Greutatea
pufuleților
(grame)
99 100 101 Total
Greutatea
jucăriilor-
surpriză
(grame)
18 1 3 6 10

19 4 9 8 21

20 7 5 1 13

21 4 1 1 6

Total 16 18 16 50

Pornind de la această distribuție probabilistică bivariată se pot izola


distribuțiile probabilistice corespunzătoare fiecăreia dintre cele 2 variabile.
Aceste distribuții univariate (denumite și distribuții marginale, întrucât sunt
descrise de probabilitățile marginale dintr-o distribuție bivariată) sunt
prezentate în tabelele 2.4 și 2.5. Conform proprietății de liniaritate a valorii
așteptate, valoarea așteptată a greutății unui pachet de pufuleți cu surprize
trebuie să fie:

În tabelul 2.6 sunt determinate probabilitățile tuturor combinațiilor posibile


ale celor 2 greutăți (calculul acestora are la bază relația de înmulțire a
probabilităților, întrucât combinațiile posibile ale celor 2 greutăți corespund
unor intersecții de evenimente). Probabilitățile corespunzătoare variabilei
aleatoare a sumelor posibile x + y sunt apoi centralizate în distribuția
probabilistică din tabelul 2.7. În ultima coloană a acestui tabel sunt calculate
valorile necesare pentru calculul valorii așteptate a variabilei aleatoare a
sumei celor două variabile (X + Y). Se verifică, într-adevăr, faptul că:

52
Tabelul 2.3
Greutatea
pufuleților
(grame)
99 100 101 Total
Greutatea
jucăriilor-
surpriză
(grame)
18 0,02 0,06 0,12 0,20

19 0,08 0,18 0,16 0,42

20 0,14 0,1 0,02 0,26

21 0,08 0,02 0,02 0,12

Total 0,32 0,36 0,32 1,00

Tabelul 2.4

x P(X = x) x·P(X = x)
99 0,32 31,68
100 0,36 36,00
101 0,32 32,32
Total 1,00 100,00

53
Tabelul 2.5

y P(Y = y) y·P(Y = y)
18 0,20 3,60
19 0,42 7,98
20 0,26 5,20
21 0,12 2,52
Total 1,00 19,30

Tabelul 2.6

P(x, y) =
x y x+y = P(X = x,Y = y) =
= P(X = x)·P(Y = y)
18 117 0,32 · 0,20 = 0,0640
19 118 0,1344
99
20 119 0,0832
21 120 0,0384
18 118 0,0720
19 119 0,1512
100
20 120 0,0936
21 121 0,0432
18 119 0,0640
19 120 0,1344
101
20 121 0,0832
21 122 0,0384
Total 1,0000

54
Tabelul 2.7

x+y P(x, y) (x + y)·P(x, y)


117 0,0640 7,4880
118 0,2064 24,3552
119 0,2984 35,5096
120 0,2664 31,9680
121 0,1264 15,2944
122 0,0384 4,6848
Total 1,0000 119,3000

Valoarea așteptată a produsului unor variabile aleatoare independente


Un caz important în ce privește valoarea așteptată a produsului unor
variabile aleatoare discrete este cel în care acestea sunt independente.
Se poate arăta că valoarea așteptată a produsului a două variabile aleatoare
independente este egală cu produsul valorilor așteptate ale celor două
variabile:

Într-adevăr, dacă X și Y sunt două variabile aleatoare independente discrete,


folosind relația generală de determinare a valorii așteptate pentru o funcție
bivariată se poate scrie:

(deoarece funcția bivariată de probabilitate a două variabile discrete


independente este egală cu produsul funcțiilor univariate (sau marginale) de
probabilitate ale celor două variabile)

55
unde:
DX este domeniul de valori pe care le poate înregistra variabila X;
DY este domeniul de valori pe care le poate înregistra variabila Y.
În mod asemănător, dacă X și Y sunt două variabile aleatoare independente
continue, se poate scrie:

(deoarece funcția bivariată de densitate probabilistică a două variabile


independente X și Y este egală cu produsul funcțiilor univariate (sau
marginale) de densitate probabilistică ale celor două variabile)

Pentru a exemplifica această relație în cazul a două variabile aleatoare


independente discrete, să considerăm datele din tabelul 2.8, privitoare la
opțiunile manifestate pe parcursul mai multor ani de către clienții unei
complex turistic în ce privește numărul de camere ale apartamentelor dintre
care aceștia au putut alege (variabila X) și schemele de curățenie
săptămânală oferite de administrația vilei (variabila Y).

56
Tabelul 2.8
Număr
camere

2 3 4 Total
Preț
curățenie
(lei / cameră)
10 18088 6118 2394 26600

12 22372 7567 2961 32900

15 7140 2415 945 10500

Total 47600 16100 6300 70000

În tabelul 2.8, sunt trecute frecvențele înregistrate pentru fiecare combinație


posibilă între variantele înregistrate de către cele două variabile. De
exemplu, s-a optat de 22372 ori pentru un apartament cu 2 camere și o
schemă de curățenie săptămânală la un preț de 12 lei / cameră.
Pe baza acestor frecvențe înregistrate în trecut, se poate construi o
distribuție probabilistică.
Distribuția probabilistică obținută pe baza acestor frecvențe este
reprezentată în tabelul 2.9. Fiecare probabilitate din acest tabel a fost
obținută prin raportarea frecvențelor absolute la totalul general înregistrat
pentru acestea (70000).
De exemplu, probabilitatea pentru un apartament de 3 camere și o schemă
de curățenie cu un preț de 15 lei / cameră este egală cu:

Cele două variabile sunt independente întrucât toate probabilitățile de


manifestare simultană a variantelor pe care ele le pot înregistra sunt egale cu
produsele probabilităților de manifestare izolată (sau marginală) a acestora:

57
De exemplu, probabilitatea de alegere a unui număr de 4 camere cu condiția
unei scheme de curățenie cu un preț de 10 lei / cameră este egală cu
produsul dintre probabilitatea totală (sau marginală) a opțiunii pentru un
număr de 4 camere și probabilitatea totală (sau marginală) a alegerii unei
scheme de curățenie cu un preț de 10 lei / cameră:

Egalitatea dintre probabilitățile de manifestare simultană a variantelor pe


care le pot înregistra două variabile aleatoare independente și produsele
probabilităților de manifestare izolată (sau marginală) a acestora determină
și egalitatea dintre probabilitățile cumulate de manifestare simultană a
variantelor pe care le pot înregistra două variabile aleatoare independente și
produsele probabilităților cumulate de manifestare izolată (sau marginală) a
acestora:

Întrucât probabilitățile cumulate sunt date de funcția de distribuție


probabilistică a variabilei considerate, această relație este echivalentă cu cea
pe care am prezentat-o deja, în legătură cu funcțiile de distribuție
probabilistică, în paragraful 2.2:

Revenind la exemplul nostru, se poate verifica, de pildă, faptul că


probabilitatea de alegere a unui număr de cel mult 3 camere cu condiția unei
scheme de curățenie cu un preț de cel mult 12 lei / cameră este egală cu
produsul dintre probabilitatea marginală a opțiunii pentru un număr de cel
mult 3 camere și probabilitatea marginală a alegerii unei scheme de
curățenie cu un preț de cel mult 12 lei / cameră:

58
Probabilitățile de manifestare izolată a celor două variabile considerate se
mai numesc și probabilități marginale deoarece ele se regăsesc ca și totaluri
marginale în tabelul de distribuție a probabilităților de înregistrare simultană
(probabilități condiționate) a valorilor (luate două câte două) care definesc
cele două variabile*.

Tabelul 2.9
Număr
camere

2 3 4 Total
Preț
curățenie
(lei / cameră)
10 0,2584 0,0874 0,0342 0,3800

12 0,3196 0,1081 0,0423 0,4700

15 0,1020 0,0345 0,0135 0,1500

Total 0,6800 0,2300 0,0900 1,0000

Calculele necesare pentru verificarea egalității dintre valoarea așteptată a


produsului celor două variabile aleatoare considerate și produsul valorilor
așteptate ale celor două variabile sunt realizate cu ajutorul tabelelor 2.10,
2.11 și 2.12.
Într-adevăr, se verifică faptul că:

*
Un asemenea tabel se numește și tabel cu dublă intrare sau tabel de corelație. Cea de-a doua denumire
este motivată de faptul că distribuția probabilităților condiționate poate fi utilizată și în scopul analizei
legăturii statistice probabilistice dintre cele două variabile considerate.

59
Pornind de la egalitatea dintre valoarea așteptată a produsului a două
variabile aleatoare independente și produsul valorilor așteptate ale acestora,
se obține, de asemenea, și următoarea relație importantă:

unde:
C este o constantă;
E (C) = C este valoarea așteptată a constantei C.
Această relație se explică pe baza faptului că o constantă este independentă
față de orice variabilă aleatoare.

Tabelul 2.10
x P(X = x) x·P(X = x)
2 0,6800 1,3600
3 0,2300 0,6900
4 0,0900 0,3600
Total 1,0000 2,4100 = E(X) = X

Tabelul 2.11
y P(Y = y) y·P(Y = y)
10 0,3800 3,8000
12 0,4700 5,6400
15 0,1500 2,2500
Total 1,0000 11,6900 = E(Y) = Y

60
Tabelul 2.12
x, y P(x, y) (x·y)·P(x, y)
2, 10 0,2584 5,1680
2, 12 0,3196 7,6704
2, 15 0,1020 3,0600
3, 10 0,0874 2,6220
3, 12 0,1081 3,8916
3, 15 0,0345 1,5525
4, 10 0,0342 1,3680
4, 12 0,0423 2,0304
4, 15 0,0135 0,8100
Total 1,0000 28,1729 = E(X·Y) = XY

Varianța sumei unor variabile aleatoare independente


Folosind relația de calcul simplificat pentru varianța unei variabile aleatoare
X, precum și relațiile obținute mai sus, se poate deduce imediat că varianța
sumei unor variabile aleatoare independente este, de asemenea, egală cu
suma varianțelor acestora:

(întrucât din faptul că X și Y independente, rezultă că E (2XY) = 2 E (X) E


(Y))

61
Pentru exemplificarea acestei proprietăți să considerăm din nou variabilele
aleatoare independente X și Y ale căror distribuții sunt prezentate în tabelele
2.10 și 2.11.

Tabelul 2.13
x P(X = x) (x - X )2 (x - X )2·P(X = x)
2 0,6800 0,1681 0,1143
3 0,2300 0,3481 0,0801
4 0,0900 2,5281 0,2275
Total 1,0000 0,4219 = Var (X)

Tabelul 2.14
y P(Y = y) (y - Y )2 (y - Y )2·P(Y = y)
10 0,3800 2,8561 1,0853
12 0,4700 0,0961 0,0452
15 0,1500 10,9561 1,6434
Total 1,0000 2,7739 = Var (Y)

Tabelul 2.15
x, y s = x + y P(s) = P(x, y) (s - S )2 (s - S )2·P(S = s)
2, 10 12 0,2584 4,41 1,1395
2, 12 14 0,3196 0,01 0,0032
2, 15 17 0,1020 8,41 0,8578
3, 10 13 0,0874 1,21 0,1058
3, 12 15 0,1081 0,81 0,0876
3, 15 18 0,0345 15,21 0,5247
4, 10 14 0,0342 0,01 0,0003
4, 12 16 0,0423 3,61 0,1527
4, 15 19 0,0135 24,01 0,3241
3,1958 = Var (S) =
Total 1,0000 Var (X) + Var (Y) =
0,4219 + 2,7739
E(S) = (x + y) ·P(x, y) = 14,10
62
În tabelele 2.13 și 2.14 sunt calculate varianțele celor două variabile, iar în
tabelul 2.15 este calculată varianța variabilei sumei (S) dintre cele două
variabile (ignorăm faptul că aceasta nu are, în acest caz, nicio semnificație
practică). Se poate observa că, într-adevăr, varianța sumei dintre cele două
variabile este egală cu suma varianțelor lor.

Varianța produsului unor variabile aleatoare independente


Ca și în cazul valorii așteptate, o situațíe importantă în ce privește varianța
produsului unor variabile aleatoare este cea în care acestea sunt
independente.
Se poate arăta că varianța produsului a două variabile aleatoare
independente X și Y este:

Pentru a demonstra aceast fapt, pornim de la relația de calcul simplificat a


varianței pentru produsul a două variabile X și Y:

Concomitent, ne putem folosi de relațiiile de calcul simplificat a varianței


unei variabile, a covarianței a două variabile și a covarianței pătratelor a
două variabile:

Putem scrie așadar că:

63
Pe de altă parte, egalitatea dintre valoarea așteptată a produsului a două
variabile independente și produsul valorilor așteptate ale celor două
variabile face ca într-un astfel de caz covarianța să fie nulă:

Mai mult, dacă două variabile sunt independente, atunci și variabilele


pătratelelor acestora sunt independente, ceea ce înseamnă că într-un astfel
de caz și covarianța variabilelor pătratelelor variabilelor considerate este
nulă:

Prin urmare, varianța produsului a două variabile independente X și Y se


poate determina cu relația:

Analizând relația obținută, se poate observa faptul că varianța produsului a


două variabile independente este egală cu produsul varianțelor lor doar în
situația în care valorile așteptate ale celor două variabile independente sunt
egale cu 0.
Pentru exemplificare, să considerăm din nou datele din tabelul 2.9.
În tabelul 2.16 sunt realizate calculele suplimentare necesare determinării
varianței produsului celor două variabile considerate în tabelul 2.9.
Conform calculelor realizate cu ajutorul tabelelor 2.12 și 2.16, rezultă că
varianța produsului celor două variabile independente considerate este egală
cu:

64
Tabelul 2.16
x2, y2 P(x2, y2) (x2·y2)·P(x2, y2)
4, 100 0,2584 103,3600
4, 144 0,3196 184,0896
4, 225 0,1020 91,8000
9, 100 0,0874 78,6600
9, 144 0,1081 140,0976
9, 225 0,0345 69,8625
16, 100 0,0342 54,7200
16, 144 0,0423 97,4592
16, 225 0,0135 48,6000
868,6489
Total 1,0000
= E(X2·Y2)

Pentru a verifica proprietatea varianței produsului a două variabile


independente enunțață la începutul acestui paragraf, mai este necesar să
determinăm valorile înregistrate de către varianțele celor două variabile
considerate în exemplul nostru.
Calculele suplimentare necesare în acest scop sunt realizate cu ajutorul
tabelelor 2.17 și 2.18.
Pe baza calculelor realizate în tabelele 2.17 și 2.18, rezultă că:

Într-adevăr, se verifică faptul că:

65
Tabelul 2.17
x2 P(X2 = x2) x2·P(X2 = x2)
4 0,6800 2,7200
9 0,2300 2,0700
16 0,0900 1,4400
6,2300
Total 1,0000
= E(X2)

Tabelul 2.18
y2 P(Y2 = y2) y2·P(Y2 = y2)
100 0,3800 38,0000
144 0,4700 67,6800
225 0,1500 33,7500
139,4300
Total 1,0000
= E(Y2)

2.6. Momentele variabilelor aleatoare. Funcția generatoare


de momente pentru o variabilă aleatoare
Momentele unei variabile aleatoare sunt valori utile în descrierea formei
distribuției probabilistice a acesteia. Ele se împart în douã categorii:
a) momente absolute de ordinul r, adică momente determinate în raport cu
originea;
b) momente centrate de ordinul r, adică momente determinate în raport cu
valoarea așteptată (media aritmetică).
Momentele absolute de ordinul r sunt echivalente cu valorile așteptate ale
puterilor de ordinul r ale variabilei considerate:

66
unde:
’r reprezintă momentul absolut de ordinul r al variabilei aleatoare discrete
X, definită pe domeniul de valori D;

unde:
’r reprezintă momentul absolut de ordinul r al variabilei aleatoare
continue X.
Se poate observa faptul că momentul absolut de ordinul 1 al unei variabile
oarecare X este echivalent cu valoarea așteptată a acesteia:

Momentele centrate de ordinul r sunt echivalente cu valorile așteptate ale


puterilor de ordinul r ale abaterilor de la media aritmetică (valoarea
așteptată) a variabilei considerate:

unde:
 r reprezintă momentul centrat de ordinul r al variabilei aleatoare discrete
X, definită pe domeniul de valori D și a cărei medie aritmetică (valoare
așteptată) este egală cu ;

unde:
 r reprezintă momentul centrat de ordinul r al variabilei aleatoare continue
X, a cărei medie aritmetică (valoare așteptată) este egală cu .

67
Se poate ușor observa faptul că momentul centrat de ordinul 1 al unei
variabile oarecare este egal cu 0.
De asemenea, se poate observa faptul că momentul centrat de ordinul 2 al
unei variabile oarecare este echivalent cu varianța acesteia.
O relație importantă între momentul centrat de ordinul 2 al unei variabile
aleatoare oarecare, momentul ei absolut de ordinul 2 și valoarea sa așteptată
(echivalentă cu momentul ei absolut de ordinul 1) este:

Într-adevăr, dacă X este o variabilă aleatoare oarecare se poate scrie că*:

Această relație este, de fapt, cazul particular al unei relații foarte importante
care există între momentul centrat de ordinul r al unei variabile aleatoare
oarecare și cele r momente absolute ale acesteia. Această relație se obține
pe baza dezvoltării lui (X ‒ ) r:

*
În mod asemănător se poate obține relația de calcul simplificat pentru covarianță:

68
Folosind această relație se pot obține, de pildă, următoarele relații pentru  3
și  4 :

Aceste relații sunt utile în determinarea statisticilor  și  , necesare în


studiul formei diferitelor distribuții probabilistice* folosite în inferențierea


statistică:

*
Aceste distribuții sunt prezentate în capitolele următoare.

69
unde:
 reprezintă abaterea standard* a distribuției considerate.
Deși momentele pot fi de cele mai multe ori determinate direct pe baza
calculelor necesare ale sumelor sau integralelor implicate, se poate folosi în
acest scop și tehnica bazată pe funcția generatoare de momente.
Pentru o variabilă aleatoare discretă X, definită pe domeniul de valori D,
funcția generatoare de momente este dată de:

Pentru o variabilă aleatoare continuă X, funcția generatoare de momente


este dată de:

Proprietatea acestei funcții de a genera momente decurge din dezvoltarea lui


etx într-o serie Maclaurin:

Pentru o variabilă aleatoare discretă X, definită pe domeniul de valori D, se


obține astfel că**:

*
Reamintim că abaterea standard este rădăcina varianței, fiind totodată echivalentă cu media pătratică a
abaterilor față de valoarea așteptată a tuturor valorilor probabile pe care o variabilă le poate înregistra.
**
Pentru o variabilă aleatoare continuă raționamentul este asemănător, cu deosebirea că sumele sunt
înlocuite de integrale definite de la -∞ la +∞, iar f (x) este funcția de densitate probabilistică.

70
r
Se poate observa că într-o astfel de dezvoltare, coeficienții rapoartelor t /
r! sunt chiar momentele absolute ale variabilei considerate.
Aceasta înseamnă că momentul absolut de ordinul r al unei variabile X
poate fi obținut ca și derivată de ordinul r a funcției generatoare de
momente a acesteia:

Pentru exemplificarea modului de obținere a unor momente absolute și,


respectiv, centrate, cu ajutorul funcției generatoare de momente, să
considerăm variabila X ale cărei valori posibile aparțin lui D = 0, 1, 2, 3,
4} și care este definită de funcția de probabilitate:

Această funcție poate servi într-adevăr ca și funcție de probabilitate pentru


variabila considerată deoarece:

Funcția generatoare de momente pentru variabila considerată este:

71
Derivând succesiv această funcție în raport cu t = 0, se pot determina acum,
de pildă, momentele absolute de ordinul 1, 2, 3 și 4* ale variabilei X:

*
Aceste momente se pot determina și cu ajutorul motorului de calcul „Wolfram Alpha”. Adresele
directe pentru calculul celor patru momente absolute sunt:
http://www.wolframalpha.com/input/?i=derivate+1%2F16*((1%2Be%5Et)%5E4)+where+t%3D0
http://www.wolframalpha.com/input/?i=2th+derivate+1%2F16*((1%2Be%5Et)%5E4)+where+t%3D0
http://www.wolframalpha.com/input/?i=3th+derivate+1%2F16*((1%2Be%5Et)%5E4)+where+t%3D0
http://www.wolframalpha.com/input/?i=4th+derivate+1%2F16*((1%2Be%5Et)%5E4)+where+t%3D0

72
Pe baza acestor rezultate se pot obține mai departe, în afară de momentul
centrat de ordinul 1 (echivalent cu momentul absolut de ordinul 1 și cu
valoarea așteptată), momentul centrat de ordinul 2 (echivalent cu varianța),
momentul centrat de ordinul 3 (necesar pentru determinarea statisticii 1) și,
respectiv, momentul centrat de ordinul 4 al variabilei X (necesar pentru
determinarea statisticii 2):

73
Aceasta înseamnă, mai departe, că:
- abaterea standard a variabilei considerate este:

- statistica 1 a variabilei X este:

- statistica 2 a variabilei considerate este:

Faptul că statistica 1 este egală cu 0 înseamnă că distribuția probabilistică


a variabilei X este una simetrică, iar o valoare ușor negativă a statisticii 2
este caracteristică unei distribuții ușor aplatizate în comparație cu o
distribuție normală*.
Aceste caracteristici ale formei distribuției variabilei considerate se pot
vefica cu ajutorul tabelului 2.19 (în care sunt prezentate probabilitățile
asociate tuturor valorilor pe care le poate înregistra variabila X, precum și
calculul valorii așteptate a acesteia), a tabelului 2.20 (în care este prezentat
calculul momentelor absolute de ordinul 2, 3 și 4), precum și a figurii 2.3 (în
care este reprezentată această distribuție împreună cu distribuția normală,
caracterizată de aceiași parametri,  = 2 și  = 1).
Probabilitățile asociate valorilor pe care le poate înregistra variabila X se
determină pe baza funcției de probabilitate a acesteia:

*
Distribuțiile normale sunt prezentate în capitolul 4.

74
Tabelul 2.19

0 0,0625 0,0000
1 0,2500 0,2500
2 0,3750 0,7500
3 0,2500 0,7500
4 0,0625 0,2500
Total 1,0000 2,0000 = E(X)

Tabelul 2.20

0 0,0000 0,0000 0,0000


1 0,2500 0,2500 0,2500
2 1,5000 3,0000 6,0000
3 2,2500 6,7500 20,2500
4 1,0000 4,0000 16,0000
Total 5,0000 = E(X2) 14,0000 = E(X3) 42,5000 = E(X4)
75
Figura 2.3

Proprietăți ale funcțiilor generatoare de momente


Pentru determinarea mai rapidă a momentelor cu ajutorul funcțiilor
generatoare de momente sunt utile următoarele proprietăți ale acestora, care
au la bază proprietățile corespunzătoare ale valorii așteptate:

unde:
a și b sunt două constante.

76
Momentele-produs ale unei perechi de variabile aleatoare
Pentru o pereche de variabile aleatoare X și Y poate fi utilă determinarea
momentelor-produs absolute sau centrate.
Momentul-produs absolut de ordinul r și, respectiv, s pentru o pereche de
variabile aleatoare X și Y este echivalent cu valoarea așteptată a produsului
puterilor de ordinul r și, respectiv, s ale celor două variabile.
Prin urmare, dacă variabilele aleatoare X și Y sunt discrete, relația de
determinare a momentului-produs absolut de ordinul r și, respectiv, s este:

unde:
r, s = 0, 1, 2, ...
Dacă variabilele aleatoare X și Y sunt continue, relația de determinare a
momentului-produs absolut de ordinul r și, respectiv, s este:

unde:
r, s = 0, 1, 2, ...
Momentul-produs centrat de ordinul r și, respectiv, s pentru o pereche de
variabile aleatoare discrete X și Y este:

unde:
r, s = 0, 1, 2, ...

77
Dacă variabilele aleatoare X și Y sunt continue, relația de determinare a
momentului-produs centrat de ordinul r și, respectiv, s este:

unde:
r, s = 0, 1, 2, ...
Se poate observa faptul că momentul-produs centrat de ordinul r = 1 și,
respectiv, s = 1 este echivalent cu covarianța celor două variabile
considerate. Prin urmare, folosind relația de calcul simplificat al covarianței,
se poate scrie:

2.7. Funcții de variabile aleatoare


Considerând un set de variabile aleatoare X1, X2, ..., Xn, împreună cu
funcția lor multivariată de probabilitate (dacă este vorba despre variabile
discrete) sau de densitate probabilistică (dacă este vorba despre variabile
continue), poate fi deseori foarte utilă aflarea funcției de probabilitate sau de
densitate probabilistică a unei variabile Y = u(X1, X2, ..., Xn) ale cărei
valori sunt relaționate de cele ale variabilelor X1, X2, ..., Xn, prin ecuația y
= u(x1, x2, ..., xn).
În continuare vor fi prezentate trei metode disponibile pentru rezolvarea
unor astfel de probleme:
- metoda funcției de distribuție probabilistică;
- metoda transformării sau a schimbării de variabilă;
- metoda funcției generatoare de momente.

Metoda funcției de distribuție probabilistică


Această primă metodă de aflare a funcției probabilistice a unei variabile Y =
u(X1, X2, ..., Xn) este folosită în cazul unor variabile X1, X2, ..., Xn
continue și constă în obținerea mai întâi a funcției de distribuție
probabilistică a variabilei Y = u(X1, X2, ..., Xn). Diferențiind această

78
funcție de distribuție probabilistică se va putea obține apoi funcția de
densitate probabilistică căutată.
Pentru exemplificare, să considerăm o variabilă aleatoare X, a cărei funcție
de densitate probabilistică este dată de:

Folosind metoda funcției de distribuție probabilistică putem afla funcția de


densitate probabilistică a variabilei Y = X 3.
Astfel, obținem mai întâi că funcția de distribuție probabilistică a variabilei
Y este:

Mai departe se obține că:

79
Prin urmare, funcția de densitate probabilistică a variabilei Y = X 3 este:

O consecință importantă a relaționării celor două variabile constă în faptul


că se pot determina probabilități în legătură cu valorile uneia pe baza
funcției de densitate probabilistică a celeilalte.
De exemplu, se poate verifica faptul că probabilitatea ca variabila X din
exemplul nostru să înregistreze valori cuprinse pe intervalul (0,2; 0,7) este
3
egală cu probabilitatea ca variabila Y = X să înregistreze valori cuprinse
3 3
pe intervalul (0,2 ; 0,7 ) = (0,008; 0,343).
Într-adevăr, se obține*:

De asemenea**:

*
Calculul online al acestei probabilitățíi P (0,2 < X < 0,7) cu ajutorul motorului „Wolfram Alpha” se
poate verifica la adresa: http://www.wolframalpha.com/input/?i=integrate+12x%5E2(1-
x)+for+x%3D0.2+to+0.7
**
Calculul online al acestei probabilitățíi P (0,008 < Y < 0,343) cu ajutorul motorului „Wolfram
Alpha” se poate verifica la adresa: http://www.wolframalpha.com/input/?i=integrate+4(1-
x%5E(1%2F3))+for+x%3D0.008+to+0.343

80
Acest fapt este reprezentat grafic în figurile 2.4 și 2.5.

Figura 2.4

81
Figura 2.5

Să exemplificăm acum metoda funcției de distribuție probabilistică pentru


aflarea funcției de densitate probabilistică a variabilei Z = X + Y,
cunoscând că funcția bivariată de densitate probabilistică a variabilelor X și
Y este:

Pentru aflarea funcției de densitate probabilistică a variabilei Z, este


necesară determinarea mai întâi a funcției de distribuție probabilistică a
acestei variabile:

82
Diferențiind acest rezultat în funcție de z, se obține:

Așadar, funcția de densitate probabilistică a variabilei Z = X + Y este dată


de:

Variabilele X și Y din acest exemplu sunt de fapt două variabile


exponențiale, cu parametrii X = 1/4 și, respectiv, Y = 1/3. Variabilele
exponențiale sunt prezentate în capitolul 4.

83
Folosind aceeași metodă a funcției de distribuție probabilistică, să aflăm mai
departe, în cadrul unui alt exemplu, funcția de densitate probabilistică a
variabilei Z = (X + Y) / 2, cunoscând că, de această dată, funcția bivariată
de densitate probabilistică a variabilelor X și Y este:

Pentru aflarea funcției de densitate probabilistică a variabilei Z, determinăm


mai întâi a funcția de distribuție probabilistică a acestei variabile:

Diferențiind acest rezultat în funcție de z, se obține:

84
Prin urmare, funcția de densitate probabilistică a variabilei Z = (X + Y) / 2
este dată de:

Metoda transformării sau a schimbării de variabilă


Metoda transformării sau a schimbării de variabilă pentru aflarea funcției
probabilistice a unei variabile Y = u(X1, X2, ..., Xn) poate fi folosită în
cazul unor variabile X1, X2, ..., Xn care pot fi discrete sau continue.
În continuare vom considera relaționarea dintre o singură variabilă X și o
variabilă Y = u(X). Dacă aceste două variabile sunt discrete, se pot întâlni
două cazuri:
a) cazul în care fiecare valoare a unei variabile X este relaționată la o
singură valoare a variabilei Y. În acest caz, metoda se rezumă la
determinarea valorilor înregistrate de variabila Y, fără a fi necesare niciun
fel de calcule în legătură cu probabilitățile asociate valorilor înregistrate de
variabila Y, acestea fiind identice cu probabilitățile asociate valorilor
înregistrate de variabila X.
b) cazul în care există mai multe valori ale unei variabile X relaționate la o
singură valoare a variabilei Y. În acest caz, după determinarea valorilor
înregistrate de variabila Y, este necesară și determinarea treptată a
probabilităților asociate valorilor înregistrate de variabila Y.
Pentru exemplificarea acestei metode în cazul a) să considerăm variabila X
ale cărei valori sunt date de numărul de apariții ale feței 6 la aruncarea de 4
ori a unui zar. Pornind de la funcția de probabilitate a acestei variabilei și
folosind metoda transformării sau a schimbării de variabilă se poate obține,
de pildă, funcția de probabilitate a variabilei Y = 1 / (1 + 2X).

85
În capitolul 3 al acestei lucrări este prezentată funcția generală de
probabilitate asociată unei variabile de tipul variabilei X. Conform relației
care descrie această funcție generală de probabilitate, se obține că funcția de
probabilitate pentru variabila X este:

unde:
x = 0, 1, 2, 3, 4.
În conformitate cu schimbarea de variabilă y = 1 / (1 + 2x), se obține că x
= (1 ‒ y) / 2y, ceea ce înseamnă că:

unde:
y = 1, 1/3, 1/5, 1/7, 1/9.
Se poate ușor observa că probabilitățile asociate acestor valori ale variabilei
Y sunt aceleași cu probabilitățile asociate valorilor corespunzătoare
înregistrate de variabila X. De pildă, probabilitatea ca Y să ia valoarea 1/7
este egală cu probabilitatea ca X să ia valoarea 3:

Pentru exemplificarea metodei transformării sau a schimbării de variabilă în


cazul b) să considerăm aceeași variabilă X de mai sus pentru a obține însă,
de această dată, variabila Z = (X ‒ 3) 2.
Probabilitățile asociate valorilor z înregistrate de variabila Z sunt:

86
Așadar, în astfel de cazuri probabilitățile trebuie calculate pentru fiecare
valoare particulară înregistrată de variabila considerată.
Atunci când variabila X și variabila Y = u(X) sunt continue, pentru a putea
folosi metoda transformării sau a schimbării de variabilă trebuie îndeplinite
următoarele condiții:
- funcția y = u(x) să fie diferențiabilă;
- funcția y = u(x) să fie ori crescătoare, ori descrescătoare pentru toate
valorile din domeniul de definiție al variabilei X, pentru care f (x) ≠ 0.
Aceste condiții fac posibilă existența funcției inverse x = w(y),
diferențiabile (mai puțín atunci când u’ (x) = 0*) pentru toate valorile y
corespunzătoare.
Dacă se întâmplă așa, atunci pentru toate valorile y corespunzătoare funcția
de densitate probabilistică a variabilei Y = u(X) este dată de:

Pentru celelalte valori y,

Pentru exemplificare, să determinăm funcția de densitate probabilistică a


variabilei Y,

dacă funcția de densitate probabilistică a variabilei X este dată de:

*
Din acest motiv trebuie evitate, în folosirea acestei metode, intervalele închise de valori pentru care
densitățile probabilistice sunt diferite de 0..

87
Întrucât ecuația care relaționează valorile variabilei X de valorile variabilei
Y,

are ca și unică inversă ecuația:

înseamnă că funcția de densitate probabilistică a variabilei Y, pentru y > 0,


este dată de:

Deoarece probabilitatea ca Y < 0, la fel ca și probabilitatea ca X < 0, este


egală cu 0, rezultă că funcția de densitate probabilistică a variabilei Y este
dată de:

Se poate verifica faptul că pentru orice constante reale a și b, a < b, are loc
egalitatea:

Să verificăm, de pildă, egalitatea de mai sus, pentru a = 0,5 și b = 1,5:

88
Aceste probabilități sunt reprezentate în figurile 2.6 și 2.7.

Figura 2.6

89
Figura 2.7

Metoda schimbării de variabilă poate fi folosită și pentru aflarea funcției de


densitate probabilistică a unei variabile care este o funcție de două sau mai
multe variabile.
Astfel, dacă sunt satisfăcute condițiile similare celor arătate în cazul
relaționării dintre două variabile, și dacă se cunoaște funcția bivariată de
densitate probabilistică a variabilelor X1 și X2 se poate afla funcția de
densitate probabilistică a variabilei Y = U (X1, X2).
De pildă, în cazul unor variabile X1 și X2 continue, se determină mai întâi
funcția bivariată de densitate probabilistică a variabilelor Y și X2 sau funcția
bivariată de densitate probabilistică a variabilelor X1 și Y:

unde:
f (x1, x2) și derivata parțială trebuie exprimate în termeni de y și x2.

90
unde:
f (x1, x2) și derivata parțială trebuie exprimate în termeni de x1 și y.
Pe baza acestor funcții bivariate de densitate probabilistică, se determină
apoi funcția marginală a variabilei Y:

sau:

Făcându-se mai departe schimbarea potrivită în variabila U, se poate obține


funcția de densitate probabilistică a variabilei Y.
În capitolul 5, este folosită această formă a metodei schimbării de variabilă
pentru demonstrarea a două importante teoreme pentru statistica
inferențială.
Să determinăm acum, de exemplu, funcția de densitate probabilistică a
variabilei Y = X1 / (X1 + X2), dacă funcția bivariată de densitate
probabilistică a variabilelor X1 și X2 este:

Deoarece variabila Y este descrescătoare atunci când variabila X2 este


crescătoare și variabila X1 menținută constantă, înseamnă că se poate folosi
metoda schimbării de variabilă pentru a determina funcția bivariată de
densitate probabilistică a variabilelor X1 și Y. Pentru aceasta, trebuie să
exprimăm, mai întâi, variabila X2 în funcție de X1 și Y și să determinăm
derivata parțială a lui X2 în funcție de Y:

91
Pentru x1 > 0 și 0 < y < 1 se obține astfel că:

Pornind de la funcția bivariată de densitate probabilistică astfel obțínută, se


poate determina acum funcția marginală a variabilei Y:

Făcând schimbarea de variabilă u = x1/y, se obține în cele din urmă, pentru


0 < y < 1, că:

Pentru celelalte valori ale lui y, h (y) = 0.


92
Se poate spune că variabila Y urmează distribuția probabilistică uniformă cu
parametrii α = 0 și β = 1. Distribuțiile uniforme sunt prezentate la
începutul capitolului 4 al acestei lucrări.

Metoda funcției generatoare de momente


Această metodă are la bază teorema importantă, conform căreia pentru un
set de variabile independente X1, X2, ..., Xn, variabila Y a sumei acestora
are ca și funcție generatoare de momente funcția dată de:

Pentru a afla funcția de probabilitate (în cazul unor variabile discrete) sau de
densitate probabilistică (în cazul unor variabile continue) a variabilei Y, pe
baza acestei metode, este necesară, astfel, identificarea funcției de
probabilitate sau a funcției de densitate probabilistică a cărei funcție
generatoare de momente este dată de produsul funcțiilor generatoare de
momente ale variabilelor X1, X2, ..., Xn.
De exemplu, se poate arăta, folosind această metodă, faptul că funcția de
probabilitate a variabilei Y a sumei unor variabile Poisson* X1, X2, ..., Xn
este dată chiar de funcția de probabilitate Poisson cu parametrul λ egal cu
suma parametrilor λ1, λ2, ..., λn ai variabilelor X1, X2, ..., Xn.
Se întâmplă așa, deoarece:

Conform celor arătate în capitolul 3, în rezultatul obținut se poate


recunoaște funcția generatoare de momente a distribuției Poisson cu
parametrul λ = λ1 + λ2 + ... + λn.

*
Distribuțiile și variabilele Poisson sunt prezentate în capitolul 3.

93
94
DISTRIBUŢII
PROBABILISTICE
DISCRETE 3.

OBIECTIVELE CAPITOLULUI
Obiectivul principal al acestui capitol este de a prezenta distribuţiile statistice
probabilistice discrete, ajutându-vă:
 să identificaţi evenimentele ale căror probabilităţi pot fi determinate cu ajutorul
distribuţiilor statistice probabilistice discrete;
 să înţelegeţi relaţiile de determinare a probabilităţilor cu ajutorul distribuţiilor
statistice probabilistice discrete;
 să puteţi descrie distribuţiile statistice probabilistice discrete mai importante
prin prisma valorii așteptate, a varianţei, a coeficientului de asimetrie şi a
coeficientului de aplatizare.
96
3.1 Distribuţiile „Bernoulli”
Cele mai simple distribuții probabilistice sunt distribuțiile „Bernoulli”,
acestea fiind distribuții ale unor variabile aleatoare binare, adică ale unor
variabile care pot înregistra doar 2 variante mutual exclusive. Asemenea
variabile aleatoare se mai numesc și variabile aleatoare de tip „Da / Nu”,
fiind descrise de o variantă care exprimă manifestarea unui anumit
eveniment de interes (varianta „Da”) și o variantă care exprimă absența
manifestării acestui eveniment de interes (varianta „Da”). În cadrul derulării
unui experiment, manifestarea evenimentului de interes este considerată un
succes, iar absența manifestării acestuia este considerată un insucces.
Considerând, de pildă, experimentul aruncării unei monede, se poate
construi distribuția „Bernoulli” de mai jos:

Tabelul 3.1
x P (x)
„Ban” 1 / 2 = 0,50
„Stemă” 1 / 2 = 0,50
Total 1,00

Un alt exemplu clasic este cel în legătură cu experimentul aruncării unui zar,
pentru care se poate considera distribuția „Bernoulli” de mai jos:

Tabelul 3.2
x P (x)
„Fața cu numărul 6” 1 / 6 = 0,1667
„O față cu un număr diferit de numărul 6” 5 / 6 = 0,8333
Total 1,0000

După cum se poate observa, în ambele exemple considerate probabilitățile


asociate celor două variante care definesc variabila aleatoare în cauză, sunt
determinate ca probabilități matematice, obținute ca rapoarte între numărul
de evenimente care descriu variantele considerate și numărul total de
evenimente posibile care se pot manifesta în urma desfășurării
experimentului.

97
Unei distribuții „Bernoulli” nenumerice i se poate asocia o variabilă
„Bernoulli” (XB), adică o variabilă care urmează o distribuție „Bernoulli”
numerică discretă, obținută prin alocarea valorii de 1 pentru înregistrarea
succesului (manifestarea evenimentului de interes) și alocarea valorii de 0
pentru înregistrarea insuccesului (absența manifestarea evenimentului de
interes).
Astfel, dacă ne referim din nou la experimentul aruncării unui zar și
considerăm ca eveniment de interes apariția feței cu numărul 6, atunci se
poate asocia acestui experiment variabila „Bernoulli” care urmează
distribuția numerică discretă de mai jos (cele două valori care definesc
variabila aleatoare, i.e. 0 și 1, sunt considerate în ordine crescătoare):

Tabelul 3.3
x P (XB = x)
0 0,8333
1 0,1667
Total 1,0000

Valoarea așteptată și varianța unei distribuții „Bernoulli”


Dacă notăm cu p probabilitatea ca o variabilă „Bernoulli” (XB) să
înregistreze valoarea de 1, fapt echivalent cu apariția unui succes la
desfășurarea unui experiment „Bernoulli”, se obține că valoarea așteptată a
unei distribuții „Bernoulli” este:

(deoarece probabilitatea de insucces este egală cu 1 ‒ p)

De asemenea, se obține că varianța unei distribuții „Bernoulli” este:

98
3.2 Distribuţiile binomiale
Distribuţiile binomiale sunt distribuțíi probabilistice ale variabilelor
aleatoare care definesc experimente binomiale, adică experimente care
constau în derularea unui anumit număr de probe de tip „Bernoulli”.
Distribuţiile binomiale sunt definite de legea de probabilitate:

unde:
Xb reprezintă o variabilă aleatoare care urmează o distribuţie binomială;
x = 0, 1, 2, ..., n;
n şi p = parametrii distribuţiei binomiale dată de legea de probabilitate
P(Xb = x; n, p). Primul parametru (n) indică numărul de probe de tip
„Bernoulli” care alcătuiesc experimentul binomial considerat, iar p indică
probabilitatea de succes la derularea unei astfel probe. În cadrul unui
experiment binomial, probele care-l alcătuiesc sunt independente între ele,
ceea ce înseamnă că probabilitatea de succes rămâne neschimbată pentru
fiecare probă.
Aruncarea de n ori a unei monede sau a unui zar sunt exemple clasice de
experimente binomiale.
Astfel, conform legii de probabilitate binomială, probabilitatea ca la 7
aruncări ale unei monede să apară de 3 ori stema este egală cu:

Folosind aceeaşi lege de probabilitate, la aruncarea de 8 ori a unui zar,


probabilitatea apariţiei de 3 ori a cifrei 6 este egală cu:

99
Cunoscându-se faptul că procentul rebuturilor de pe o linie de fabricaţie este
de 2%, se poate determina probabilitatea ca din 100 de produse realizate,
5 să fie defecte:

Chiar dacă în cadrul acestui ultim experiment, evenimentele nu sunt pur


independente între ele (la rigoare, rezultatul curent modifică probabilitatea
rezultatelor următoare), se poate recurge totuşi la folosirea şi de această
dată a legii binomiale, dată fiind faptul că n are o valoare mare, iar
probabilitatea p de rebut are o valoare mică, ceea ce determină o
condiţionare nesemnificativă între probe.

Valoarea așteptată (media) unei distribuţii binomiale


Folosind relaţia de determinare a probabilităţilor asociate unei distribuţii
binomiale, se constată că valoarea așteptată sau media unei astfel de
distribuţii este egală cu produsul celor doi parametri care o definesc (n şi
p):

(observând că primul termen al sumei, adică pentru x = 0, este egal cu 0)

100
(dând factori comuni pe n şi pe p)

(observând că suma din relaţie este o dezvoltare binomială)

Demonstraţia relaţiei de determinare a mediei distribuţiei binomiale se poate


face mai rapid notând cu q probabilitatea de manifestare a insuccesului în
derularea unei probe și considerând relaţia de dezvoltare binomială:

Prin derivare în raport cu p se obţine:

Înmulţind cei doi termeni ai acestei relaţii cu p rezultă:

101
Întrucât p + q = 1 (acestea sunt probabilități care definesc împreună în
totalitate un spațiu de eșantionare) și, prin urmare, q = 1 – p, se obţine în
cele din urmă:

Relaţia de determinare a valorii așteptate a unei distribuţii binomiale se


poate regăsi cu uşurinţă în diferite experimente. De exemplu, este de
aşteptat ca la aruncarea unei monede de 300 de ori să obţinem 300 x 0,5
= 150 de apariţii ale banului (şi 150 de apariţii ale stemei). De asemenea,
la aruncarea unui zar de 12 de ori este firesc să contăm pe obţinerea a 12 x
(1/6) = 2 apariţii ale feţei 6. În tabelul 3.4 este prezentată distribuţia
binomială pentru acest experiment.
Doarece o variabilă binomială este de fapt o sumă de variabile „Bernoulli”,
valoarea așteptată a unei distribuții binomiale poate fi determinată și pe baza
faptului că valoarea așteptată a sumei unor variabile aleatoare este egală cu
suma valorilor așteptate ale acestora*:

unde:
(XB; p) este variabila „Bernoulli” cu probabilitatea de succes p.

*
A se vedea capitolul 2.

102
Tabelul 3.4

103
Tabelul 3.4 - continuare

10

11

12

Total 1,0000000000
Se confirmă faptul că:

Varianţa unei distribuţii binomiale


Vom arăta că varianţa distribuţiei binomiale se poate calcula cu ajutorul
relaţiei:

Pentru aceasta, pornim de la relaţia de calcul simplificat al varianţei:

Prin urmare,

Am văzut însă că:

104
Aceasta înseamnă că:

Prin urmare, mai trebuie determinată doar media pătratului variabilei


aleatoare binomiale:

Mai departe putem folosi formula de recurenţă:

Se poate astfel scrie:

105
Conform acestui rezultat, rezultă astfel că:

Întrucât variabilele „Bernoulli” care compun o variabilă binomială sunt


independente între ele (fapt ce rezultă din independența probelor care
definesc un experiment binomial), relația de determinare a varianței unei
variabile binomiale se poate obține mult mai ușor astfel:

106
(deoarece varianței sumei unor variabile aleatoare independente este egală
cu suma varianțelor acestora*)

unde:
(XB; p) este variabila „Bernoulli” cu probabilitatea de succes p.
Aşadar, varianţa distribuţiei binomiale se poate determina în funcţie de
parametrii n şi p. Astfel, valori mai mari ale parametrului n determină valori
mai mari ale varianţei distribuţiei binomiale.
În ce priveşte parametrul p, valori mai mari ale varianţei distribuţiei
binomiale se obţin pe măsură ce acest parametru se apropie mai mult de
valoarea de 0,5, valoare pentru care varianţa este cea mai mare.
Se poate exemplifica acest fapt pe baza tabelului 3.5., în care sunt redate
valorile varianţei distribuţiei binomiale atunci când n ia valori de la 5 la 7,
iar p variază în salturi egale cu 0,1.

Tabelul 3.5
n 5 5 5 5 5 5 5 5 5
p 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9
Varianţa distribuţiei
0,45 0,80 1,05 1,20 1,25 1,20 1,05 0,80 0,45
binomiale

n 6 6 6 6 6 6 6 6 6
p 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9
Varianţa distribuţiei
0,54 0,96 1,26 1,44 1,50 1,44 1,26 0,96 0,54
binomiale

n 7 7 7 7 7 7 7 7 7
p 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9
Varianţa distribuţiei
0,63 1,12 1,47 1,68 1,75 1,68 1,47 1,12 0,63
binomiale

Relaţia dintre varianţa distribuţiei binommiale şi valorile n, respectiv p, se


poate interpreta astfel:
- incertitudinea rezultatului unui experiment binomial creşte pe măsură ce
creşte numărul de probe (n); este firesc să se întâmple aşa, din moment ce

*
A se vedea capitolul 2.

107
creşterea numărului de probe duce la creşterea numărului de evenimente
probabile;
- incertitudinea rezultatului unui experiment binomial este mai mică atunci
când diferenţa dintre probabilitatea de succes (p) şi cea de insucces (1−p)
este mai mare; în astfel de situaţii scade incertitudinea privitoare la
rezultatul mai probabil (indiferent care este acesta).

Funcţia generatoare de momente pentru o distribuţie binomială


Folosind relaţia generală de determinare a funcţiei generatoare de momente
pentru o distribuţie probabilistică, se obţine că pentru o distribuţie
binomială:

Prin derivări succesive în raport cu t se pot determina mai departe


momentele unei distribuţii binomiale.
Astfel, se obține, de exemplu, că:

108
Pe baza primelor două relații, se pot obţine dn nou valoarea așteptată şi
varianţa unei distribuţii binomiale. Astfel, valoarea așteptată este:

Pentru a determina varianţa, trebuie obținut mai întâi momentul absolut de


ordinul 2:

109
Aşadar, varianţa este:

Folosind relația pentru cea de-a treia derivată a funcției generatoare de


momente, se poate obţine, de asemenea, momentul absolut de ordinul 3 al
unei distribuții binomiale:

Mai departe, se poate determina momentul centrat de ordinul 3 al unei


distribuţii binomiale. Astfel:

Întrucât μ = np iar μ’2 = np (np − p + 1) = μ (μ − p + 1), se poate


scrie mai departe că:

Cel de-al treilea moment absolut al unei distribuţii binomiale se poate scrie
şi el în funcţie de μ:

110
Folosind acest rezultat, se obţine că:

Pentru a putea interpreta simetria/asimetria unei distribuţii binomiale în


funcţie de probabilitatea de succes (p) şi, respectiv, probabilitatea de
insucces la o probă de experiment binomial (q = 1 − p), putem scrie relaţia
de determinare a momentului centrat de ordinul 3 pentru o astfel de
distribuţie sub forma:

Obţinem astfel că:


− dacă p = q, atunci μ3 = 0, ceea ce înseamnă că distribuţia binomială este
una simetrică, i.e. probabilitățile se distribuie simetric față de valoarea lor
maximă posibilă, care corespunde chiar valorii așteptate;
− dacă p < q, atunci μ3 > 0, ceea ce înseamnă că distribuţia binomială este
asimetrică cu coadă la dreapta, i.e. probabilitățile se etalează mai mult în
dreapta valorii lor maxime posibile;
− dacă p > q, atunci μ3 < 0, ceea ce înseamnă că distribuţia binomială este
asimetrică cu coadă la stânga i.e. probabilitățile se etalează mai mult în
stânga valorii lor maxime posibile.
Pentru a exemplifica grafic aceste trei situaţii posibile, să considerăm
următoarele trei experimente binomiale:
− aruncarea 10 ori a unei monede, considerănd ca succes al unei probe
apariţia banului; în acest caz, p = q = 0,5, ceea ce înseamnă că distribuţia
este una simetrică, aşa cum se poate vedea în figura 3.1;

111
P(X) = probabilitatea de obţinere
0,30
0,2461
0,25
0,2051 0,2051
a x succese 0,20

0,15 0,1172 0,1172


0,10
0,0439 0,0439
0,05
0,0010 0,0098 0,0098 0,0010
0,00
1 2 3 4 5 6 7 8 9 10 11
x = număr de succese

Figura 3.1 Distribuţia binomială a variabilei XB; n = 10, p = 0,5

− aruncarea 10 ori a unui zar, considerănd ca succes al unei probe apariţia


feţei cu numărul 6;; în acest caz, p = 1/6 = 0,1667 şi q = 5/6 = 0,8333,
ceea ce înseamnă că distribuţia este asimetrică cu coadă la dreapta, aşa cum
se poate vedea în figura 3.2;

0,35 0,3230
P(X) = probabilitatea de obţinere

0,2907
0,30

0,25
a x succese

0,20 0,1615 0,1550


0,15

0,10
0,0543
0,05 0,0130 0,0022
0,0002 0,0000 0,0000 0,0000
0,00
1 2 3 4 5 6 7 8 9 10 11
x = număr de succese

Figura 3.2 Distribuţia binomială a variabilei XB; n = 10, p = 0,1667

− extragerea a 10 bile dintr-o urnă, cu reintroducerea acestora înapoi după


fiecare extragere, considerănd ca succes al unei probe extragerea unei bile
albe, în condiţiile în care în urnă se află 40 de bile albe şi doar 10 bile
negre; în acest caz, p = 40/50 = 0,8 şi q = 10/50 = 0,2, ceea ce
înseamnă că distribuţia este asimetrică cu coadă la stânga, aşa cum se poate
vedea în figura 3.3;

112
0,35

P(X) = probabilitatea de obţinere


0,3020
0,30 0,2684
0,25

a x succese
0,2013
0,20

0,15
0,1074
0,0881
0,10

0,05 0,0264
0,0000 0,0000 0,0001 0,0008 0,0055
0,00
1 2 3 4 5 6 7 8 9 10 11
x = număr de succese

Figura 3.3 Distribuţia binomială a variabilei XB; n = 10, p = 0,8

În cazul în care p ≠ q, intensitatea asimetriei se poate măsura cu ajutorul


coeficientului de asimetrie sau oblicitate („skewness” în engleză) propus de
către Irwin Fisher (γ1). Pentru o distribuţie binomială, acest coeficient
devine:

(întrucât σ2 = npq)

Aceasta înseamnă că la aceeaşi probabilitate de succes, p ≠ 0,5, asimetria


sau oblicitatea unei distribuţii binomiale scade pe măsură ce numărul de
probe (n) creşte, aşa cum se poate vedea, de exemplu, cu ajutorul figurilor
3.4 - 3.5, în care sunt reprezentate două distribuţiil binomiale caracterizate
de acelaşi parametru p = 0,25 , dar cu parametrul n diferit (egal cu 10 şi,
respectiv, 15).

113
Figura 3.4 Distribuţia binomială a variabilei XB; n = 10, p = 0,25

Figura 3.5 Distribuţia binomială a variabilei XB; n = 15, p = 0,25

Pentru aprecierea gradului de aplatizare sau boltire („kurtosis”) trebuie să


determinăm mai departe momentul centrat de ordinul 4 (μ4). Pentru
înlesnirea calculelor necesare în determinarea acestui moment centrat,
facem următoarele notaţii:

Folosind aceste notaţii obţinem că:

114
Avem însă:

Aşadar:

Pentru t = 0, avem:

Aceasta înseamnă că:

Aşadar:

Putem determina acum momentul centrat de ordinul 4 al unei distribuţii


binomiale. În capitolul 2 s-a arătat că:

115
Cel de-al patrulea moment absolut al unei distribuţii binomiale se poate
scrie şi el în funcţie de μ = np:

Prin urmare, se obţine:

Aşadar, momentul centrat de ordinul 4 al unei distribuţii binomiale este:

Folosind acest rezultat se poate obţine mai departe, la nivelul unei distribuţii
binomiale, relaţia de determinare a coeficientului de kurtosis propus de
către Irwin Fisher (γ2):

116
Conform acestei relaţii, rezultă că atunci când numărul de probe (n) tinde
spre infinit, coeficientul de kurtosis tinde spre 0, indiferent de valoarea
probabilităţii de succes (p), ceea ce înseamnă că forma distribuţiei
binomiale capătă tot mai mult alura unei distribuţii normale* (kurtosis nul).
Pentru a ilustra acest fapt, am reprezentat în figura 3.6 distribuţia binomială
caracterizată prin parametrul p = 0,25, asemenea distribuţiilor din figurille
3.4 şi 3.5, dar cu n = 50.

0,14
P(X) = probabilitatea de

0,12
obţinere a x succese

0,10
0,08
0,06
0,04
0,02
0,00
1 3 5 7 9 11 13 15 17 19 21 23 25
x = număr de succese

Figura 3.6 Distribuţia binomială a variabilei XB; n = 50, p = 0,25

3.3 Distribuţiile multinomiale


Distribuțiile binomiale pot fi văzute ca și cazuri particulare ale distribuțiilor
multinomiale.
În cadrul unui experiment multinomial, probele care-l alcătuiesc sunt, ca și
în cazul unui experiment binomial, independente între ele. De această dată

*
Distribuția normală este prezentată în capitolul 4.

117
însă, cateogoriile de evenimente care se pot manifesta în cadrul unei probe
nu sunt doar în număr de două, ci de m, m > 2.
Notând cu x1, x2, ... xm frecvențele urmărite de manifestare ale celor m
categorii de evenimente și cu p1, p2, ... pm probabilitățile constante de
manifestare a celor m tipuri de evenimente în cadrul celor n probe care
alcătuiesc un experiment multinomial, se poate formula următoarea lege
generală de probabilitate multinomială:

unde:

iar xi poate lua una dintre valorile 0, 1, ..., n, astfel încât:

Pentru exemplificarea folosirii legii de probabilitate multinomiale, să


presupunem că audiența a 4 posturi tv de știri este într-o anumită seară de:
35% pentru postul A; 25% pentru postul B; 22% pentru postul C și 18%
pentru postul D.
Putem afla, în aceste condiții, care este, de pildă, probabilitatea ca din 10
spectatori tv selectați aleator, 5 să vizioneze postul A, 3 să vizioneze postul
B, 1 să vizioneze postul C și 1 să vizioneze postul D:

Așadar, probabilitatea căutată este de aproximativ 1,64%.

118
3.4 Distribuţiile binomiale negative
Uneori putem fi interesaţi în legătură cu numărul de probe necesare în
cadrul unui experiment binomial până la obţinerea unui anumit număr de
succese.
De exemplu, ne-ar putea interesa care este probabilitatea ca al 10-lea copil
expus la o boală contagioasă să fie primul care să o şi contacteze. Sau un
candidat ar putea fi interesat în legătură cu probabilitatea ca la un test grilă
la cea de-a 20-a întrebare să nimerească la întâmplare răspunsul corect
pentru a 5-a oară.
Pentru ca la cea de-a x-a probă să se înregistreze cel de-al k-lea succes
trebuie ca pentru primele x − 1 probe să se înregistreze k − 1 succese.
Probabilitatea pentru realizarea acestei situaţii este, conform legii binomiale
(pozitive):

Pe de altă parte, obţinerea unui succes la cea de-a x-a probă are o
probabilitate egală cu p.
Se obține astfel legea de probabilitate binomială negativă:

unde:
Xb* reprezintă o variabilă aleatoare care urmează o distribuţie binomială
negativă;
x = k, k + 1, k + 2, ...;
k şi p = parametrii distribuţiei binomiale negative în cauză.
Denumirea de distribuţii binomiale negative a fost dată deoarece valorile
obţinute pe baza legii binomiale negative sunt termenii succesivi ai
dezvoltării unui binom ridicat la o putere negativă, şi anume:

119
Să calculăm, de exemplu, probabilitatea ca cel de-al 10-lea angajat al unei
firme expus la o boală contagioasă să fie primul care să se îmbolnăvească,
în condiţiile în care se cunoaşte că 20% dintre angajaţii expuşi la această
boală se îmbolnăvesc. Conform legii binomiale negative, probabilitatea
căutată este:

Dat fiind faptul că 20% dintre angajaţii expuşi la această boală se


îmbolnăvesc, este de aşteptat ca probabilitatea ca cel de-al 10-lea angajat
expus la această boală contagioasă să fie al doilea sau al treilea care să se
îmbolnăvească să fie una mai mare, ceea ce se poate verifica:

respectiv,

Se poate arăta uşor că valorile obţinute prin legea binomială negativă se pot
obţine şi pe seama legii binomiale pozitive:

Folosind relaţia obţinută, să recalculăm, de exemplu, probabilitatea ca cel


de-al 10-lea angajat expus la o boală contagioasă să fie cel de-al doilea care

120
să se îmbolnăvească, în condiţiile în care se cunoaşte că 20% dintre
angajaţii expuşi la această boală se îmbolnăvesc:

Media unei distribuţii binomiale negative


Se poate arăta că media unei distribuţii binomiale negative este egală cu
raportul dintre cei doi parametri care o definesc (k şi p).
Astfel:

121
(considerând y = x − k, ceea ce înseamnă că x = y + k)

Putem folosi acum relaţia de dezvoltare binomială:

Considerând q = 1 − p, ceea ce înseamnă că 1 − q = p, se obţine:

Prin urmare,

Revenind la exemplele de mai sus, este de aşteptat, aşadar, ca primul copil


care va contacta o boală contagioasă (k = 1), cunoscând că 20% dintre
copiii expuşi la această boală se îmbolnăvesc (p = 0,2), să fie cel de-al 5-
lea copil expus la boală (1 / 0,2 = 5).
În condiţiile unei creşteri a procentului de îmbolnăvire la 50% (p = 0,5),
este de aşteptat ca primul copil care va contacta boala să fie cel de-al doilea
copil expus la aceasta (1 / 0,5 = 2). În tabelul 3.6 este reprezentată
distribuţia probabilistică în cazul acestui experiment pentru valorile de la 0
la 20 ale variabilei Xb*. Se poate observa că media calculată doar la nivelul
acestor valori este deja foarte apropiată (= 1,99997902) de valoarea lui
μ(Xb*; k = 1, p = 0,5) = 2.

122
Tabelul 3.6

P(Xb* = x)
x x·P(Xb* = x)
k = 1, p = 0,5
1 0,50000000 0,50000000
2 0,25000000 0,50000000
3 0,12500000 0,37500000
4 0,06250000 0,25000000
5 0,03125000 0,15625000
6 0,01562500 0,09375000
7 0,00781250 0,05468750
8 0,00390625 0,03125000
9 0,00195313 0,01757813
10 0,00097656 0,00976563
11 0,00048828 0,00537109
12 0,00024414 0,00292969
13 0,00012207 0,00158691
14 0,00006104 0,00085449
15 0,00003052 0,00045776
16 0,00001526 0,00024414
17 0,00000763 0,00012970
18 0,00000381 0,00006866
19 0,00000191 0,00003624
20 0,00000095 0,00001907
Total 0,99999905 1,99997902

123
Varianţa unei distribuţii binomiale negative
Varianţa unei distribuţii binomiale negative se poate calcula cu ajutorul
relaţiei:

Pentru a demonstra această relaţie, folosim din nou relaţia de calcul


simplificat al varianţei, aplicată la cazul distribuţiilor binomiale negative:

Ne-a mai rămas să determinăm media pătratului variabilei binomiale


negative:

Pentru determinarea mediei pătratului variabilei binomiale negative doar în


funcţie de parametrii acesteia (k şi p), folosim mai departe dezvoltarea
binomială:

unde q  (-1, 1).


Această relaţie este echivalentă cu:

Derivăm acum, pe rând, cei doi termeni ai egalităţii:

124
respectiv,

Putem scrie, prin urmare, următoarea relaţie:

Înmulţind cei doi termeni ai relaţiei cu q, relaţia devine:

Deerivând termenii acestei relaţii, obţinem:

respectiv,

125
Se obţine, aşadar, relaţia:

Considerând q = 1 − p, se poate deduce că media pătratului variabilei


binomiale negative este:

126
Revenind la varianţa unei distribuţiei binomiale negative, rezultă că:

Se poate observa faptul că atunci când p = 0,5, varianţa distribuţiei


binomiale negative este egală cu media acesteia (= k/p):

3.5 Distribuţiile geometrice


O distribuţie geometrică este un caz particular al distribuţiei binomiale
negative obţinut pentru k = 1. Aşadar, o distribuţie geometrică este dată de
legea de probabilitate:

unde:
Xg reprezintă variabila numărului de experimente independente de tip
Bernoulli necesare până la apariţia primului succes;
x = 1, 2, 3, ...
p = parametrul distribuţiei geometrice, acelaşi cu parametrul care defineşte
experimentele Bernoulli asociate, i.e. probabilitatea de succes la derularea
acestora.

127
Folosind această relaţie să calculăm, de exemplu, probabilitatea ca un
produs să treacă un test de calitate doar la a 4-a sa testare a acestuia, în
condiţiile în care probabilitatea de a trece testul la oricare testare realizată
este de 30%:

Media şi varianţa unei distribuţii geometrice se obţin uşor din relaţiile de


determinare a mediei şi varianţei distribuţiei binomiale negative:

De exemplu, numărul mediu de aruncări ale unui zar necesare până la


apariţia feţei cu numărul 6 este egal cu:

Rezultatul obţinut era de aşteptat, având în vedere că zarul are 6 feţe,


fiecare cu aceeași probabilitate de apariţie (1/6).

3.6 Distribuţiile hipergeometrice


Spre deosebire de experimentele binomiale, în cazul experimentelor
hipergeometrice probele nu mai sunt independente între ele. Aceasta
înseamnă că probabilitatea de succes la derularea probei „i” (i = 2, 3, 4,
...) este condiţionată de rezultatul / rezultatele obţinute la derularea probei /
probelor anterioare.
Schema clasică de desfăşurare a unui experiment hipergeometric este cea a
extragerilor dintr-o urnă cu bile, fără întoarcerea în urnă a bilelor extrase.
Distribuţia hipergeometrică care caracterizează experimentul format din n
probe-extrageri constă în acest caz în distribuţia probabilităţilor de extragere
(fără întoarcere în urnă) a x bile de o anumită culoare din totalul celor N
bile aflate la început în urmă, dintre care k bile sunt de culoarea căutată.
În aceste condiţii se poate afirma că:

128
a) numărul de variante în care se pot alege x bile din totalul celor k bile de
culoarea căutată este egal cu numărul de combinări de k luate câte x;
b) numărul de variante în care se pot alege n − x bile din totalul celor N −
k bile de culoarea diferită de cea căutată este egal cu numărul de combinări
de N − k luate câte n − x;
c) numărul de variante în care se pot alege x bile de culoarea căutată şi n −
x bile de culoare diferită de cea căutată din totalul celor N bile, este egal cu
produsul dintre numărul de variante de la punctul a) şi numărul de variante
de la punctul b);
d) numărul de variante în care se pot alege n bile din totalul celor N bile din
urnă este egal cu numărul de combinări de N luate câte n.
Prin urmare, o distribuţie hipergeometrică este dată de legea de
probabilitate:

unde:
x = 0, 1, 2, ..., n;
x ≤ k;
n − x ≤ N − k.
O distribuţie hipergeometrică este, precum se poate observa, definită de 3
parametri: numărul de probe (n), mărimea populaţiei statistice supuse
experimentului hipergeometric (N), şi mărimea părţii din populaţia statistică
pentru care se constată existenţa proprietăţii căutate în cadrul
experimentului hipergeometric (k).
Pentru exemplificare, să considerăm o companie care are un parc auto
format din 20 de camioane. Cunoscându-se faptul că din cele 20 de
camioane, 3 emit noxe in exces, am putea fi interesaţi să determinăm
probabilitatea ca la testarea la întâmplare a 5 camioane, să nu emită niciunul
noxe în exces:

129
Este de aşteptat, desigur, ca la testarea la întâmplare a doar 4 camioane,
probabilitatea ca niciunul să nu emită noxe în exces să fie mai mare, aşa
cum se şi verifică:

Media unei distribuţii hipergeometrice


Media unei distribuţii hipergeometrice se poate determina în funcţie de cei 3
parametri (n, N şi k) care definesc o astfel de distribuţie:

Astfel:

130
(considerând y = x − 1 şi m = n − 1)

Putem folosi acum relaţia lui Vandermonde:

Obţinem, aşadar:

(cum m = n − 1)

Să revenim la exemplul companiei deţinătoare a unui parc auto format din


20 de camioane, dintre care 3 emit noxe in exces. Putem afirma acum că în
urma testării la întâmplare a 5 camioane, numărul mediu de camioane pentru
care este de aşteptat să se detecteze emisii de noxe în exces, este egal cu:

Dacă numărul de camioane care emit noxe în exces creşte însă la 4, este de
aşteptat ca, în medie, la testarea la întâmplare a 5 camioane, unul dintre
acestea să emită noxe în exces:

Raportul dintre numărul de camioane testate şi numărul total de camioane


ale firmei (5/20 = 0,25) este probabilitatea ca un camion oarecare
(indiferent că emite sau nu noxe) să facă parte din eşantionul de camioane
testate.

131
Este de aşteptat ca numărul de camioane care emit noxe în exces în cadrul
eşantionului ales la întamplare să depindă direct proporţional de numărul de
camioane care emit noxe în exces în cadrul întregului parc auto al companiei
(k).
Astfel, dacă toate camioanele companiei ar emite noxe în exces (k = N),
atunci este sigur că toate camioanele testate (n) vor emite noxe în exces. La
fel, dacă jumătate din camioanele companiei ar emite noxe în exces, atunci
este de aşteptat ca tot jumătate din camioanele testate să emită noxe în
exces.
Revenind la exemplul nostru, se poate afirma că dacă o cincime dintre
camioanele firmei emit noxe în exces (20/5 = 4 camioane), atunci este de
aşteptat ca tot o cincime din camioanele testate (5/5 = 1 camion) să emită
noxe în exces.

Tabelul 3.7

Total 1,0000
Media
aritmetică
(valoarea
așteptată)

132
Distribuţia probabilistică pentru experimentul considerat în acest exemplu
este prezentată în tabelul 3.7, în care este calculată şi media aritmetică prin
însumarea valorilor pe care le poate înregistra variabila statistică (valorile
x), ponderate cu probabilităţile asociate lor, determinate conform legii de
probabilitate hipergeometrică.
Se confirmă faptul că media aritmetică este în acest caz egală cu 1.

Varianţa unei distribuţii hipergeometrice


Pentru obţinerea relaţiei de calcul a varianţei, determinăm din nou mai întâi
media pătratului variabilei aleatoare X:

(considerând y = x − 2 şi m = n − 2)

133
(cum m = n − 2)

Aşadar, varianţa unei distribuţii hipergeometrice este:

134
Să verificăm acest rezultat pentru distribuţia hipergeometrică exemplificată
în tabelul 3.7. Parametrii distribuţiei considerate în acest tabel au fost: n =
5; N = 20 şi k = 4. Pentru aceste valori ale parametrilor, varianţa
distribuţiei hipergeometrice, conform relaţiei obţinute mai sus, este:

Pentru verificarea acestui rezultat am construit tabelul 3.8.

Tabelul 3.8

P(Xh = x)
x x2 x2 · P(Xh = x)
n = 5, N = 20, k = 4
0 0,2817 0 0,0000
1 0,4696 1 0,4696
2 0,2167 4 0,8669
3 0,0310 9 0,2786
4 0,0010 16 0,0165
Total 1,0000 1,6316

În urma calculelor realizate în tabelul 3.8, se confirmă faptul că varianţa


distribuţiei este egală cu 0,6316:

135
Aproximarea unei distribuţii hipergeometrice printr-o distribuţie
binomială atunci când N tinde spre infinit
Atunci când N tinde spre infinit, legea hipergeometrică tinde să ia forma
legii binomiale.
Pentru a demonstra acest fapt, considerăm valoarea p = k/N, fixată. Ceea
ce este de arătat, în aceste condiţii, este că:

Relaţia care descrie legea hipergeometrică se poate transforma, pentru


aceasta, astfel:

136
Se poate observa acum că:

De asemenea, se poate scrie:

Pe de altă parte, atunci când x şi s sunt fixate, în timp ce k ia valori


proporţionale cu valorile lui N, avem:

137
De asemenea, atunci când n, x şi t sunt fixate, în timp ce k ia valori
proporţionale cu valorile lui N, avem:

Rezultă că:

De asemenea, rezultă că:

138
Prin urmare, într-adevăr:

Pentru exemplificare, să considerăm experimentul hipergeometric, definit


prin parametrii n = 15, N = 40 şi k = 10. Distribuţia probabilistică a
variabilei Xh determinată de acest experiment este redată în tabelul 3.9.

Tabelul 3.9
x P(Xh = x) pentru n = 15, N = 40, k = 10
0 0,0039
1 0,0362
2 0,1340
3 0,2580
4 0,2852
5 0,1882
6 0,0747
7 0,0175
8 0,0023
9 0,0001
10 0,0000
Total 1,0000
139
Să considerăm mai departe alte două experimente hipergeometrice, definite
tot de parametrul n = 15, dar realizate la nivelul unor colectivităţi statistice
mai mari, şi anume de volum N1 = 400 şi, respectiv, N2 = 8000.
Cunoscând faptul că aproximarea unei distribuţii hipergeometrice se poate
face printr-o distribuţie binomială caracterizată de parametrul p = k/N, vom
căuta să fixăm valorile k1 şi k2 pentru cel de-al treilea parametru
caracteristic unui experiment hipergeometric astfel încât să aibă loc
egalitatea:

Prin urmare trebuie să fixăm:

În tabelele 3.10 - 3.11 sunt reprezentate distribuţiile probabilistice pentru


aceste două experimente pentru valori x de la 0 la 10.

Tabelul 3.10
x P(Xh = x) pentru n = 15, N1 = 400, k1 = 100
0 0,0122
1 0,0641
2 0,1547
3 0,2281
4 0,2296
5 0,1672
6 0,0910
7 0,0377
8 0,0120
9 0,0029
10 0,0005
Total 0,9999
140
Tabelul 3.11
x P(Xh = x) pentru n = 15, N2 = 8000, k2 = 2000
0 0,0133
1 0,0667
2 0,1558
3 0,2253
4 0,2254
5 0,1652
6 0,0917
7 0,0392
8 0,0130
9 0,0034
10 0,0007
Total 0,9999

Tabelul 3.12
x P(Xb = x) pentru n = 15, p = 0,25
0 0,0134
1 0,0668
2 0,1559
3 0,2252
4 0,2252
5 0,1651
6 0,0917
7 0,0393
8 0,0131
9 0,0034
10 0,0007
Total 0,9999

141
Se poate observa că distribuţia probabilistică din tabelul 3.11 este cea mai
apropiată de distribuţia binomială cu parametrii n = 15 şi p = 0,25 = k/N,
reprezentată în tabelul 3.12 pentru valori x de la 0 la 10. Aşadar se constată
că într-adevăr legea hipergeometrică este tot mai bine aproximată de legea
binomială pe măsură ce valoarea lui N creşte, în timp ce raportul k/N
rămâne constant şi este egală cu parametrul p al distribuţiei binomiale în
cauză.

3.7 Distribuţiile hipergeometrice multivariate


Așa cum distribuțiile binomiale pot fi văzute ca și cazuri particulare ale
distribuțiilor multinomiale, și distribuțiile hipergeometrice pot fi abordate ca
și cazuri particulare ale distribuțiilor hipergeometrice multivariate.
Astfel, în cadrul unui experiment hipergeometric multivariat, extragerile
care-l alcătuiesc sunt, ca și în cazul unui experiment hipergeometric,
dependente între ele. Categoriile de evenimente care se pot manifesta la o
extragere sunt, de această dată, în număr de m, m > 2.
Notând cu x1, x2, ... xm frecvențele urmărite de manifestare ale celor m
categorii de evenimente în cadrul celor n extrageri care alcătuiesc un
experiment hipergeometric multivariat și cu k1, k2, ... km frecvențele celor
m categorii de evenimente în cadrul mulțimii celor N elemente din care se
fac extragerile care definesc un experiment hipergeometric multivariat, se
poate formula următoarea lege generală de probabilitate hipergeometrică
multivariată:

unde:

iar xi poate lua una dintre valorile 0, 1, ..., n, astfel încât xi  ki și:

142
Pentru exemplificarea folosirii legii de probabilitate hipergeometrică
multivariată, să presupunem că din cele 20 de perechi de pantofi găsite cu
defecte la un control de calitate al unui anumit lot de fabricație, 9 sunt cu
defecte considerate minore, 7 sunt cu defecte considerate majore și 4 au
ambele tipuri de defecte.
Putem afla, în acest caz, care este probabilitatea ca la extragerea aleatoare a
5 perechi de pantofi dintre cele 20, în scopul unor verificări mai amănunțite,
2 perechi să fie cu defecte considerate minore, o pereche să fie cu defecte
considerate minore și 2 perechi cu ambele tipuri de defecte:

Așadar, probabilitatea căutată este de aproximativ 9,75%.

3.8 Distribuţiile Poisson


Atunci când un experiment binomial este caracterizat printr-un număr mare
mare de probe, folosirea relaţiei de determinare a probabilităţilor asociate
diferitelor valori ale variabilei binomiale poate deveni anevoioasă.
De exemplu, dacă numărul de probe se ridică la 2000, iar probabilitatea de
succes este de 0,005, relaţia de calcul a probabilităţii ca variabila binomială
să ia valoarea 20, conform legii de probabilitate binomială, devine:

Astfel de situaţii pot justifica recursul la legea de probabilitate Poisson.


Aceasta reprezintă cazul limită al legii de probabilitate binomiale, în care
numărul de probe (parametrul n) tinde către ∞, în timp ce produsul np
rămâne constant.
Dacă notăm acest produs cu , se obţine că:

143
Considerând această egalitate în relaţia care descrie legea de probabilitate
binomială, rezultă că:

Se poate observa acum faptul că toate cele x − 1 rapoarte din partea stângă
a acestui produs tind spre 1 atunci când n tinde către ∞.
Pe de altă parte, ultimul factor al produsului se poate desface în doi
subfactori:

144
Se poate, de asemenea, observa că atunci când x este fixat iar n tinde către
∞, cel de-al doilea subfactor tinde şi el către 1.
În ce priveşte primul dintre cei doi subfactori, se poate scrie:

Se cunoaşte însă faptul că:

Prin urmare, se poate scrie că:

Pornind de la acest rezultat se poate defini legea de probabilitate Poisson


astfel:

unde:
 reprezintă parametrul distribuţiei Poisson;
x = 0, 1, 2, ...
Fiind expresia unui cazului limită al legii de probabilitate binomiale (pentru
care numărul parametrul n tinde către ∞, în timp ce produsul np rămâne
constant), legea de probabilitate Poisson poate aproxima, în anumite
condiţii, probabilităţile unui experiment binomial.
Astfel, legea Poisson oferă o bună aproximare a probabilităţilor unui
experiment binomial dacă n ≥ 20 şi p ≤ 0,05.
Dacă n ≥ 100 şi np ≤ 10, atunci aproximarea probabilităţilor unui
experiment binomial cu ajutorul legii Poisson va fi una foarte bună.
Să revenim la exemplul nostru, în care un experiment binomial este
caracterizat printr-un număr de 2000 de probe şi o probabilitate de succes
145
(p) de 0,005. Avâmd în vedere faptul că n ≥ 100 şi np ≤ 10, este de
aşteptat ca aproximarea cu ajutorul legii de probabilitate Poisson a
probabilităţii ca variabila binomială să ia valoarea (x) de 20 să fie una
foarte bună.
Pentru a obţine această aproximare, trebuie calculat mai întâi parametrul :

Rezultă apoi că:

Dacă se foloseşte legea de probabilitate binomială se obţine:

Se confirmă, astfel, faptul că aproximarea cu ajutorul legii Poisson este


foarte bună.
Să considerăm acum experimentul binomial cu n = 5000 şi cu p = 0,002,
astfel încât produsul acestora să fie în continuare egal cu 10:

Probabilitatea ca variabila binomială să ia valoarea de 20 este de această


dată mai apropiată de probabilitatea aproximată cu ajutorul legii Poisson:

Aproximarea este mai bună în acest caz deoarece parametrul n al


distribuţiei binomiale este mai mare (produsul np =  rămânând constant).

Media distribuţiilor Poisson


Întrucât legea de probabilitate Poisson reprezintă un caz limită al legii de
probabilitate binomiale, înseamnă că media unei distribuţii Poisson trebuie
să fie egală cu media distribuţiei binomiale al cărei caz limită îl reprezintă.
Ştim însă că media unei distribuţii binomiale este egală cu np. Cum np =
, rezultă că media unei distribuţii Poisson este egală cu . Se poate
verifica acest fapt şi cu ajutorul relaţiei generale de determinare a mediei

146
unei distribuţii probabilistice. Aplicată la cazul unei distribuţii Poisson,
aceasta ia forma:

Putem folosi acum dezvoltarea în serie de puteri a funcţiei f(x) = ex:

Înlocuind pe x cu  şi pe k cu x − 1, obţinem:

Prin urmare, rezultă că într-adevăr:

Relaţia de determinare a mediei unei distribuţii Poisson se poate obţine mai


rapid prin diferenţierea relaţiei de dezvoltare în serii de puteri a lui e:

147
(diferenţiind în raport cu )

(înmulţind ambele părţi cu e−)

(ultima sumă este chiar media distribuţiei Poisson)

Tabelul 3.13
x
0 0,0497871 0,0000000
1 0,1493612 0,1493612
2 0,2240418 0,4480836
3 0,2240418 0,6721254
4 0,1680314 0,6721254
5 0,1008188 0,5040941
6 0,0504094 0,3024564
7 0,0216040 0,1512282
8 0,0081015 0,0648121
9 0,0027005 0,0243045
10 0,0008102 0,0081015
11 0,0002210 0,0024305
12 0,0000552 0,0006629
13 0,0000127 0,0001657
14 0,0000027 0,0000382
15 0,0000005 0,0000082
Total 0,9999999 2,9999980
148
Pentru exemplificare, să considerăm distribuţia Poisson caracterizată de
parametrul  = 3. În tabelul 3.13 sunt prezentate probabilităţile asociate
variabilei aleatoare XP pentru valori de la 0 la 15. Calculând media
distribuţiei doar la nivelul acestor valori ale variabilei XP, se obţine deja o
valoare foarte apropiată (= 2,9999980) de valoarea lui  = 3.

Varianţa distribuţiilor Poisson


Din aceleaşi considerente pe care le-am arătat în cazul mediei distribuţiei
Poisson, varianţa acestei distribuţii trebuie să fie egală cu varianţa
distribuţiei binomiale al cărei caz limită îl reprezintă. Ştim însă că varianţa
unei distribuţii binomiale este egală cu np(1−p). Pentru np constant, atunci
când n tinde ∞, p va tinde către 0, ceea ce face ca 1−p să tindă către 1.
Prin urmare varianţa unei distribuţii Poisson este egală şi ea cu np = . Se
poate verifica acest fapt şi cu ajutorul relaţiei generale de calcul simplificat
a varianţei unei distribuţii probabilistice. Aplicată la cazul unei distribuţii
Poisson, aceasta ia forma:

Determinăm acum primul termen al relaţiei obţinute:

149
(întrucât suma care apare în interiorul parantezelor drepte este echivalentă

cu dezvoltarea în serie de puteri a funcţiei f () = e )

Tabelul 3.14
x
0 0,0497871 0,000000
1 0,1493612 0,149361
2 0,2240418 0,896167
3 0,2240418 2,016376
4 0,1680314 2,688502
5 0,1008188 2,520470
6 0,0504094 1,814739
7 0,0216040 1,058598
8 0,0081015 0,518497
9 0,0027005 0,218741
10 0,0008102 0,081015
11 0,0002210 0,026735
12 0,0000552 0,007954
13 0,0000127 0,002154
14 0,0000027 0,000535
15 0,0000005 0,000123
Total 0,9999999 11,999967
11,999967 − 2,9999980 2 = 2,99998

150
Aşadar, varianţa distribuţiei Poisson este, într-adevăr egală şi ea cu
parametrul distribuţiei Poisson, :

Pentru exemplificare, să considerăm din nou distribuţia Poisson


caracterizată de parametrul  = 3. În tabelul 3.14 este calculată varianţa
acestei distribuţiei la nivelul valorilor de la 0 la 15 ale variabilei XP,
observându-se deja o valoare foarte apropiată (= 2,99998) de valoarea lui
 = 3.

Funcţia generatoare de momente pentru o distribuţie Poisson


Folosind relaţia generală de determinare a funcţiei generatoare de momente
pentru o distribuţie probabilistică, se obţine că pentru o distribuţie Poisson:

Se poate folosi acum relaţia generală de dezvoltare într-o serie MacLaurin:

Pentru z = et relaţia de mai sus devine:

151
Folosind această relaţie, rezultă că funcţia generatoare de momente pentru o
distribuţie Poisson este:

Derivând succesiv funcţia generatoare de momente în raport cu t se pot


determina acum momentele unei distribuţii Poisson.
Pentru început se obţine că:

152
Considerând acum t = 0 se pot confirma relaţiile de determinare a mediei
şi, respectiv, varianţei unei distribuţii Poisson:

153
Putem determina mai departe coeficienţii de asimetrie şi, respectiv, kurtosis,
pe baza momentelor centrate de ordinul 3 şi 4.
Pentru început, determinăm momentele absolute de ordinul 3 şi 4:

Folosind aceste rezultate, putem obţine relaţia de determinare a


coeficientului de asimetrie Fisher (γ1) pentru o distribuţie Poisson:

În relaţiile de mai sus s-a folosit notaţia uzuală pentru momentul absolut de
ordinul r al unei variabile aleatoare X:

Se poate observa faptul că atunci când  tinde la ∞, coeficientul de


asimetrie a distribuţiei Poisson tinde spre 0, ceea ce înseamnă că ea tinde să
devină simetrică, aşa cum se poate verifica, de exemplu, cu ajutorul figurilor

154
3.6-3.8, în care sunt sunt ilustrate distribuţiile Poisson pentru  = 2; 5 şi
10.

0,30
P(X) = probabilitatea de
obţinere a x succese

0,25

0,20

0,15

0,10

0,05

0,00
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31
x = număr de succese

Figura 3.7 Distribuţia Poisson a variabilei XP;  = 2

0,20
0,18
P(X) = probabilitatea de
obţinere a x succese

0,16
0,14
0,12
0,10
0,08
0,06
0,04
0,02
0,00
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31
x = număr de succese

Figura 3.8 Distribuţia Poisson a variabilei XP;  = 5

155
0,14

P(X) = probabilitatea de
0,12

obţinere a x succese 0,10


0,08
0,06
0,04
0,02
0,00
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31
x = număr de succese

Figura 3.9 Distribuţia Poisson a variabilei XP;  = 10

Pentru a obţine relaţia de determinare a coeficientului de kurtosis Fisher


(γ2) care caracterizează o distribuţie Poisson, vom determina mai întâi
momentul centrat de ordinul 4 al acestei distribuţii:

Prin urmare, se obţine că:

Aceasta înseamnă că pe măsură ce  creşte, coeficientul de kurtosis γ2 se


apropie de 0, ceea ce înseamnă că forma distribuţiei Poisson se apropie de

156
forma unei distribuţii normale, aşa cum se poate vedea şi cu ajutorul figurii
3.10, în care este reprezentată distribuţia Poisson pentru  = 30.

0,08
P(X) = probabilitatea de

0,07
obţinere a x succese

0,06
0,05
0,04
0,03
0,02
0,01
0,00
1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 49 52 55 58 61
x = număr de succese

Figura 3.10 Distribuţia Poisson a variabilei XP;  = 30

Legea Poisson şi funcţia incompletă superioară Gamma


Se poate arăta că:

Pentru aceasta, în integrala din dreapta facem schimbarea de variabilă y = t


− , ceea ce înseamnă că t = y + . Dacă t = , atunci y =  −  = 0,
obţinându-se astfel că:

Folosind dezvoltarea binomiala a lui (y + )k, se obţine:

157
(scoţând din integrală termenii independenţi de y)

Trebuie observat acum faptul că integrala în funcţie de y din relaţia de mai


sus reprezintă o funcţie gamma (), putându-se arăta că:

(folosind integrarea prin părţi)

(folosind din nou integrarea prin părţi)

158
(deoarece (1) = 1)

Revenind la relaţia pe care dorim să o demonstrăm, se obţine că:

Facând schimbarea de variabilă k − i = x, ceea ce înseamnă că dacă i = 0,


atunci x = k şi dacă i = k, atunci x = 0, rezultă:

Aşadar, rezultă că într-adevăr:

unde:
 (k, ) reprezintă funcţia incompletă Gamma superioară cu parametrii k şi
.
Pentru exemplificare, să verificăm această relaţie pentru k = 5 şi  = 7. În
acest scop, să calculăm mai întâi probabilitatea cumulată a distribuţiei
Poisson pentru k = 5 şi  = 7, folosind valorile distribuţiei Poisson din
tabelul 3.15:
159
Tabelul 3.15

0 0,0009119
1 0,0063832
2 0,0223411
3 0,0521293
4 0,0912262
5 0,1277167
Total 0,3007083

Să determinăm acum valoarea funcţiei incomplete Gamma superioare*


pentru parametrii k + 1 = 6 şi  = 7:

Pentru aceasta, să ne ocupăm mai întâi de integrala nedefinită


corespunzătoare, aplicând în mod repetat metoda integrării prin părţi:

*
Pentru aflarea valorilor funcţiei incomplete Gamma se pot folosi şi calculatoare on-line de funcţii
statistice, cum sunt, de exemplu, cele de la adresele:
http://www.danielsoper.com/statcalc3/calc.aspx?id=23 sau
http://keisan.casio.com/has10/SpecExec.cgi?id=system/2006/1180573447

160
Folosind acest rezultat, putem să calculăm acum integrala definită a cărei
valoare este egală cu valoarea (6, 7):

−∞
(deoarece e = 0)

161
Înmulţind această valoare cu 1 / (k!) = 1 / (5!), se obţine într-adevăr:

Să verificăm aceeaşi relaţie existentă între probabilitatea cumulată Poisson


şi funcţia incompletă Gamma superioară pentru k = 6 şi  = 7.
Probabilitatea cumulată Poisson este în acest caz:

Valoarea funcţiei incomplete Gamma superioară pentru k = 6 şi  = 7 este:

162
Înmulţind această valoare cu 1 / (k!) = 1 / (6!), se obţine:

Procesele Poisson
După cum am arătat, distribuţia Poisson se obţine ca limită a distribuţiei
binomiale, atunci când numărul de probe (parametrul n) tinde către ∞, în
timp ce produsul np rămâne constant. Faptul că acest produs rămâne
constant este echivalent cu faptul că probabilitatea de succes (p) tinde către
0, motiv pentru care distribuţia Poisson se mai numeşte şi legea
evenimentelor rare.
În acest paragraf vom arăta că distribuţia Poisson, ca şi lege a evenimentelor
rare, poate fi folosită şi pentru rezolvarea unor probleme care nu au o
legătură directă cu distribuţia binomială.
Astfel, distribuţia Poisson poate servi ca şi model pentru aflarea numărului
de apariţii ale unui eveniment pe parcursul unei anumite perioade de timp
sau într-o anumită regiune din spaţiu, atunci când sunt îndeplinite
următoarele condiţii:
1) numărul de apariţii care se înregistrează pentru intervale de timp sau
regiuni fără puncte comune se manifestă ca o variabilă independentă;
2) probabilitatea ca un singură apariţie să se înregistreze într-un interval de
timp foarte scurt sau într-o regiune foarte mică este direct proporţională cu
mărimea intervalului de timp sau a regiunii considerate;
3) probabilitatea ca mai mult de o apariţie să se înregistreze într-un astfel de
interval foarte mic sau într-o astfel de regiune foarte mică este neglijabilă.
Un proces care satisface aceste 3 condiţii se numeşte proces Poisson.
De exemplu, distribuţia Poisson poate descrie numărul de greşeli de tipărire
per pagină, numărul de bacterii dintr-o anumită cultură sau numărul de

163
clienţi care sosesc la un ghişeu bancar, atunci când este cunoscut numărul
mediu de succese pentru un interval de timp dat sau pentru o porţiune de
spaţiu clar delimitată.
Astfel, dacă, de pildă, se cunoaşte faptul că numărul mediu de clienţi care se
prezintă într-o anumită zi a săptămânii (să zicem, luni) la un anumit ghişeu
bancar este de 32, putem să aflăm probabilitatea ca într-o astfel de zi (ziua
de luni) să se prezinte la acest ghişeu cel mult 25 de clienţi. Această
probabilitate se poate determina ca şi probabilitate Poisson cumulată, pe
care o putem calcula, aşa cum am arătat în paragraful anterior, cu ajutorul
funcţiei incomplete Gamma superioară*:

Se poate arăta că în cadrul unui proces Poisson caracterizat printr-o rată


medie de apariţie a evenimentului per unitatea de timp sau spaţiu egală cu
, numărul mediu de apariţii înregistrate într-un interval de t unităţi de timp
sau într-o regiune de t unităţi de spaţiu este o variabilă aleatoare Poisson,
caracterizată de o medie  = t.
Prin urmare, atunci când sunt satisfăcute condițiile care caracterizează un
proces Poisson, probabilităţile asociate variabilei aleatoare a numărului de
apariţii înregistrate într-un interval de t unităţi de timp sau într-o regiune de t
unităţi de spaţiu se pot determina cu ajutorul relaţiei:

Pentru a demonstra acest fapt, să notăm cu f(x, t) funcţia de probabilitate


asociată variabilei aleatoare X(t) a numărului de apariţii ale unui eveniment
rar pe parcursul unui interval de timp de lungime t. Pentru a fi în acord cu
proprietăţile unui proces Poisson, o astfel de funcţie de probabilitate trebuie
să satisfacă următoarele condiţii:
1) f(1, t) = ·t. Aceasta egalitate decurge din cea de-a doua
proprietate a unui proces Poisson, potrivit căreia probabilitatea ca o singură

*
Pentru realizarea calcului necesar, am folosit, de această dată, motorul de calcul „Wolfram Alpha”.
Adresa directă pentru calculul fracţiei noastre este:
https://www.wolframalpha.com/input/?i=1%2F25!*Gamma[26%2C+32]

164
apariţie să se înregistreze într-un interval de timp foarte scurt (i.e. de la t la t
+ t) este direct proporţională cu mărimea intervalului de timp considerat
();
2) probabilitatea ca mai mult de o apariţie să se înregistreze într-un astfel de
interval foarte mic de timp este neglijabilă;
3) probabilitatea ca o apariţie să se producă pe parcursul unui asemenea
interval de timp este independentă de ceea ce s-a întâmplat înainte de
momentul t.
Conform celei de-a doua dintre aceste condiţii, atunci când t este foarte
mic există doar două posibilităţi ca pe intervalul de timp egal cu t + t să
se înregistreze x apariţii, şi anume:
a) pe intervalul de timp de la momentul 0 la t să se înregistreze x apariţii,
ceea ce înseamnă că pe intervalul de timp de la t la t + t nu se
înregistrează nicio apariţie (figura 3.11);

momentul
0 t t + Δt

x apariţii 0 apariţii

Figura 3.11

b) pe intervalul de timp de la momentul 0 la t să se înregistreze x − 1


apariţii, ceea ce înseamnă că pe intervalul de timp de la t la t + t se
înregistrează exact o singură apariţie (figura 3.12).

momentul
0 t t + Δt

x − 1 apariţii 1 apariţie

Figura 3.12

165
Aceasta înseamnă că probabilitatea ca pe intervalul de timp egal cu t + t
să se înregistreze x apariţii este egală cu:

(conform notaţiei stabilite şi ţinând cont de regula de multiplicare a


probabilităţilor pentru evenimente independente − aplicabilă aici pe seama
celei de-a treia dintre condiţiile enumerate mai sus − şi, respectiv, de regula
de adunare a probabilităţilor pentru evenimente complementare)

Întrucât, conform celei de-a doua condiţii stabilite, probabilitatea ca mai


mult de o apariţie să se înregistreze pe intervalul de timp t este neglijabilă,
înseamnă că probabilitatea ca pe acest interval de timp să nu se înregistreze
nicio apariţie este complementară probabilităţii ca pe acest interval de timp
să se înregistreze o singură apariţie. Prin urmare, putem scrie mai departe:

Rezultă de aici că:

Se poate observa că atunci când t tinde către 0, raportul de diferenţe din


stânga egalităţii obţinute devine derivata funcţiei f(x, t).
Aşadar, atunci când intervalul de timp de la t la t + t este foarte apropiat
de t, putem scrie:
166
Făcâmd înlocuirea corespunzătoare, se obţine, prin urmare, următorul sistem
infinit de ecuaţii diferenţiale (fiecărei valori a lui x îi corespunde o asemenea
ecuaţie, în condiţiile în care x poate înregistra o infinitate de valori posibile):

Acest sistem infinit de ecuaţii diferenţiale se poate rezolva prin substituţie


directă.
Pentru început, se poate observa că, deoarece numărul de apariţii ale
evenimentului (x) este un număr natural, se poate scrie că:

Pe baza acestei egalităţi şi considerând, în cadrul sistemului infinit de ecuaţii


diferenţiale pe care-l avem de rezolvat, pe x = 0, rezultă că:

Aceasta înseamnă că:

Să considerăm acum variabila u:

Atunci:

Însă:

Aceasta înseamnă că o soluție a ecuației obținute în u este:

167
Așadar, se poate scrie că:

Astfel, se verifică într-adevăr faptul că:

Revenind la sistemul infinit de ecuaţii diferenţiale pe care-l avem de


rezolvat, se obţine mai departe, pentru x = 1, ecuaţia:

Aceasta înseamnă că:

Însă:

Aceasta înseamnă că o soluție a ecuației obținute pentru x = 1 poate fi


obținută pe baza relaţiei:

Aşadar, se verifică într-adevăr faptul că:

168
Revenind din nou la sistemul infinit de ecuaţii diferenţiale pe care-l avem de
rezolvat, se obţine mai departe, pentru x = 2, ecuaţia::

Aceasta înseamnă că:

Însă:

Aceasta înseamnă că o soluție a ecuației obținute pentru x = 2 poate fi


obținută pe baza relaţiei:

Aşadar, se verifică într-adevăr faptul că:

Fiind obţinute aceste rezultate, putem presupune, conform procedeul


inducţiei matematice, că pentru x = k se verifică relaţia:

169
Rămâne de arătat că:

Considerînd x = k + 1 în cadrul sistemului infinit de ecuaţii diferenţiale pe


care-l avem de rezolvat, se obţine ecuaţia:

Aceasta înseamnă că:

Însă:

Aceasta înseamnă că o soluție a ecuației obținute pentru x = k + 1 poate fi


obținută pe baza relaţiei:

170
Astfel, se verifică într-adevăr faptul că:

Așadar, în cadrul unui proces Poisson caracterizat printr-o rată medie de


apariţie a evenimentului per unitatea de timp sau spaţiu egală cu ,
probabilităţile asociate variabilei aleatoare a numărului de apariţii
înregistrate într-un interval de t unităţi de timp sau într-o regiune de t unităţi
de spaţiu se pot determina, într-adevăr, cu ajutorul relaţiei:

Pentru exemplificare, să presupunem că numărul mediu de defecte


constatate la stofa produsă într-o anumită fabrică este  = 8 per 100 mp de
material.
Să presupunem, mai departe, că sunt îndeplinite următoarele condiţiile care
descriu, pentru acest caz, un proces Poisson:
1) numărul de defecte care se constată pentru o anumită bucată de stofă este
independent de numărul de defecte care se constată pentru o altă bucată de
stofă;
2) probabilitatea ca un singur defect să se înregistreze pentru o bucată foarte
mică de stofă este direct proporţională cu mărimea acesteia;
3) probabilitatea ca mai mult de un defect să se constate pentru o astfel de
bucată foarte mică de stofă este neglijabilă.
Managerii responsabili cu calitatea producției de stofă din această fabrică ar
putea fi interesați să cunoască probabilitatea de a se constata mai mult de
15 defecte la analiza de calitate realizată pentru 200 de mp de stofă. Fiind
îndeplinite condițiile care definesc un proces Poisson, înseamnă că această
probabilitate este:

Pentru a calcula această probabilitate, trebuie determinată mai întâi valoarea


parametrului .

171
Această valoare depinde însă de valoarea lui , și, respectiv, a lui t. Întrucât
unitatea de spațiu considerată în exemplul nostru este egală cu 100 mp,
înseamnă că:

Așadar, probabilitatea căutată este:

Procesele Poisson și legea exponențială a timpilor de aşteptare


În strânsă legătură cu un proces de tip Poisson se poate vorbi despre
distribuția exponențială a timpilor de așteptare asociată acestuia.
Astfel, dacă variabila Poisson descrie în cadrul unui proces Poisson numărul
de apariții ale unui eveniment rar, timpul de așteptare dintre două astfel de
apariții poate fi descris de o variabilă exponențială, așa cum se va arăta în
capitolul următor.

172
DISTRIBUŢII
PROBABILISTICE
CONTINUE 4.

OBIECTIVELE CAPITOLULUI
Obiectivul principal al acestui capitol este de a prezenta distribuţiile statistice
probabilistice continue, ajutându-vă:
 să identificaţi evenimentele ale căror probabilităţi pot fi determinate cu ajutorul
distribuţiilor statistice probabilistice continue;
 să înţelegeţi relaţiile de determinare a probabilităţilor cu ajutorul distribuţiilor
statistice probabilistice continue;
 să puteţi aplica relaţiile de determinare a probabilităţilor cu ajutorul distribuţiilor
statistice probabilistice continue în rezolvarea unor probleme de ordin
economic.
174
4.1. Distribuţiile continue uniforme
Cele mai simple distribuții probabilistice continue sunt distribuțiile continue
uniforme.
O variabilă aleatoare este distribuită după o distribuție continuă uniformă
dacă și numai dacă funcția ei de densitate probabilistică este dată de relația
generală:

unde:
α și β sunt constante reale și α < β.
Faptul că aceste funcții pot fi funcții de densitate probabilistică se poate
demonstra destul de ușor.
Astfel, prima condiție necesară pentru a putea fi funcții de densitate
probabilistică, i.e. condiția ca ele să fie pozitive, este îndeplinită deoarece α
< β, ceea ce face ca raportul 1 / β < α să fie pozitiv.
Cea de-a doua condiție necesară pentru a putea fi funcții de densitate
probabilistică este, de asemenea, îndeplinită, deoarece:

Pentru α = 0 și β = 1 se obține cazul particular important al distribuției


uniforme standard:

175
Această distribuție este folosită ca și distribuție de referință în statistica
matematică. Un domeniu important în care distribuția uniformă standard se
dovedește foarte utilă este cel al generării de numere aleatoare.
Mai jos se va arăta că distribuția uniformă standard este totodată
echivalentă cu un caz particular de distribuție beta (a se vedea paragraful
dedicat distribuțiilor beta).

Valoarea așteptată a distribuțiilor continue uniforme


Se poate arăta că valoarea așteptată a distribuțiilor continue uniforme este
chiar centrul intervalului (α, β), echivalent cu media aritmetică a
constantelor α și β:

Varianța distribuțiilor continue uniforme


Pentru a determina varianța distribuțiilor continue uniforme putem porni de
la relația:

Valoarea așteptată a variabilei E (X 2) este:

176
Aceasta înseamnă că varianța distribuțiilor continue uniforme este:

Determinarea probabilității ca o variabilă continuă uniformă să


înregistreze valori într-un interval (a, b)  (α, β)
Probabilitatea ca o variabilă continuă uniformă să înregistreze valori într-un
interval (a, b)  (α, β) se poate determina cu relația generală:

177
Acest rezultat este echivalent cu aria dreptunghiului hașurat din figura 4.1,
dreptunghi cu lungimea egală cu b – a și înălțimea egală cu 1 / β – α.

Figura 4.1

Exemplu de variabilă continuă distribuită uniform


În pratică, deseori se pot presupune ca și variabile continue distribuite
uniform anumite variabile de timp. De exemplu, se poate distribui uniform:
timpul de livrare sau de recepție al unor mărfuri; timpul de răspuns la o
anumită petiție sau la o anumită comandă etc.
Să presupunem, astfel, că timpul de recepție zilnică a produselor
farmaceutice achiziționate de un spital variază uniform în intervalul cuprins
între orele 7:00 și 8:30 a.m.

178
În aceste condiții, valoarea așteptată a timpului de recepție este, conform
celor arătate mai sus, dată de ora 7:45 a.m. (= mijlocul intervalului cuprins
între orele 7:00 și 8:30 a.m.).
Se poate, de asemenea, determina probabilitatea ca recepția să aibă loc în
întervalul de ±1 față de această valoare medie. Pentru aceasta, trebuie
determinată mai întâi valoarea abaterii standard (calculele se fac în minute):

(deoarece timpul cuprins între orele 7:00 și 8:30 a.m. este de 90 de


minute)

Aceasta înseamnă că:

Așadar, probabilitatea ca recepția să aibă loc în întervalul de ±1 față de


valoarea așteptată (deoarece în acest caz  ≈ 25,98, este vorba aici despre
intervalul cuprins aproximativ între orele 7:19 și 8:11 a.m.) este egală cu
57,74%.
Se poate arăta că această valoare se obține pentru probabilitatea ca orice
variabilă uniformă să înregistreze valori în întervalul de ±1 față de
valoarea ei așteptată:

179
4.2. Distribuţiile gamma
Conform celor arătate în capitolul 2, o variabilă aleatoare este distribuită
după o distribuție gamma dacă și numai dacă funcția ei de densitate
probabilistică este dată de relația generală:

unde:
α > 0;
β > 0.
Un exemplu de variabilă care poate urma o distribuție gamma este consumul
zilnic de energie electrică dintr-un anumit oraș.
Să presupunem că într-un anumit oraș consumul zilnic de energie electrică
(în milioane kWh) este o variabilă (X) care urmează o distribuție gamma cu
parametrii α = 4 și β = 3. Dacă centrala electrică a orașului are o
capacitate de 25 milioane kWh, atunci probabilitatea ca într-o zi energia
electrică furnizată de aceasta să fie insuficientă este:

180
(integrând de mai multe ori prin părți*)

Așadar, probabilitatea căutată este de 3,37%, aceasta fiind ilustrată în


figura 4.2.

Figura 4.2

*
Rezultatul se poate obține și online, cu ajutorul motorului de calcul „Wolfram Alpha”, la adresa:
http://www.wolframalpha.com/input/?i=integrate+%281%2F%283%5E4*gamma%5B4%5D%29*x%5
E%284-1%29*e%5E%28-x%2F3%29%29+from+25+to+infinity

181
4.3. Distribuţiile exponențiale
Distribuțiile exponențiale sunt cazuri particulare de distribuții gamma.
Forma generală a distribuțiilor exponențiale se obține pornind de la forma
generală a distribuțiilor gamma și alegând α = 1 și β = θ.
Prin urmare, o variabilă aleatoare este distribuită după o distribuție
exponențială dacă și numai dacă funcția ei de densitate probabilistică este
dată de relația generală:

unde:
θ > 0.
Se poate arăta însă faptul că:

Așadar, funcțiile exponențiale de densitate probabilistică sunt date de relația


generală:

unde:
θ > 0.

Valoarea așteptată și varianța distribuțiilor exponențiale


Se poate arăta că valoarea așteptată a unei distribuții exponențiale este egală
cu parametrul θ al acesteia:

182
Asemănător, se poate arăta că varianța unei distribuții exponențiale este
egală cu pătratul parametrului θ al acesteia. Pentru aceasta trebuie
determinată mai întâi valoarea așteptată a pătratului lui X:

183
Aceasta înseamnă că într-adevăr:

Pornind de la aceste rezultate se poate formula concluzia că atât valoarea


așteptată, cât și abaterea standard a unei distribuții exponențiale, sunt egale
cu valoarea parametrului θ al acesteia.

Distribuțiile exponențiale și procesele Poisson


Așa cum am anticipat în capitolul anterior, distribuțiile exponențiale sunt
într-o strânsă legătură cu procesele de tip Poisson. Mai exact este vorba
despre distribuțiile exponențiale ale timpilor de așteptare.
Astfel, considerând un proces Poisson, caracterizat de parametrul  = αt (t
reprezintă numărul de unități de timp sau de spațiu considerate), se poate
determina funcția de distribuție a variabilei de așteptare necesară până la
manifestarea primului succes care definește acest proces Poisson.
Această funcție de distribuție este dată de relațiile:

184
Diferențiind această funcție, se obține funcția de densitate probabilistică:

După cum se poate observa, această familie de funcții nu este alta decât cea
a funcțiilor exponențiale caracterizate de parametrul θ = 1 / α.
Să presupunem, de pildă, că numărul de mii de kilometri care pot fi parcurși
cu un anumit tip de anvelope se distribuie după o distribuție exponențială
caracterizată de parametrul θ = 35, ceea ce înseamnă că numărul mediu de
kilometri care pot fi parcurși cu acest tip de anvelope este de 35.000.
Dorim să aflăm, în aceste condiții:
a) probabilitatea ca o asemenea anvelopă să poată fi folosită pentru
parcurgerea a cel puțin 25.000 km;
b) probabilitatea ca o astfel de anvelopă să poată fi folosită pentru
parcurgerea a cel mult 45.000 km;
c) probabilitatea ca o anvelopă de acest tip să poată fi folosită pentru
parcurgerea între 25.000 și 45.000 km.
d) probabilitatea ca dintr-un set de 4 anvelope de acest tip, cel puțin două să
poată fi folosite pentru parcurgerea a mai mult de 30.000 km.
Întrucât θ = 35, rezultă că variabila de uzură Y a acestor anvelope este
caracterizată de parametrul α = 1 / θ = 1 / 35 ≈ 0,0286 anvelope uzate
la 1000 de km parcurși.

185
Așadar:
a) probabilitatea ca numărul de kilometri care pot fi parcurși cu o asemenea
anvelopă să fie de cel puțin 25.000 km este:

Aceeași probabilitate se poate determina prin considerarea variabilei


Poisson (XP) a numărului mediu de anvelope care se uzează prin
parcurgerea a 25.000 de km:

186
Prin urmare, probabilitatea ca numărul de kilometri care pot fi parcurși cu o
anvelopă de acest tip să fie de cel puțin 25.000 este de aproximativ
48,95%.
Rezultatul obținut este reprezentat în figura 4.3.

Figura 4.3

b) probabilitatea ca numărul de kilometri care pot fi parcurși cu o astfel de


anvelopă să fie de cel mult 45.000 km este:

187
Aceeași probabilitate se poate determina prin considerarea variabilei
Poisson (XP) a numărului mediu de anvelope care se uzează prin
parcurgerea a 45.000 de km:

Rezultatul obținut este reprezentat în figura 4.4.


Prin urmare, probabilitatea ca numărul de kilometri care pot fi parcurși cu o
astfel de anvelopă să fie de cel mult 45.000 este de aproximativ 72,35%.

188
Figura 4.4

c) probabilitatea ca numărul de kilometri care pot fi parcurși cu o asemenea


anvelopă să fie cuprins între 25.000 și 45.000 km este:

189
Rezultatul obținut este reprezentat în figura 4.5.

Figura 4.5

Cu ajutorul figurii 4.5 se poate observa faptul că acest rezultat se poate


obține mai repede pe seama rezultatelor obținute la punctele a și b. Pentru
aceasta se poate recurge la două variante de calcul.
Astfel, într-o primă variantă, se poate scrie:

În cea de-a doua variantă, se poate scrie:

190
Prin urmare, probabilitatea ca numărul de kilometri care pot fi parcurși cu
un asemenea tip de anvelopă să fie cuprins între 25.000 și 45.000 km este
de aproximativ 21,31%.
d) folosind același algoritm ca la punctul a), rezultă că probabilitatea ca
numărul de kilometri care pot fi parcurși cu o asemenea anvelopă să fie mai
mare de 30.000 km este:

Putem considera acum variabila Z a numărului de anvelope din setul de 4


care pot fi folosite mai mult de 30.000 km.
Întrucât probabilitatea ca o anvelopă din acest set să poată fi folosită mai
mult de 30.000 km este independentă de probabilitatea ca o altă anvelopă
din set să poată fi folosită mai mult de 30.000 km, se poate afirma că
această variabilă este o variabilă binomială caracterizată de o probabilitate
de succes p = 0,42437, succesul fiind definit de evenimentul alegerii unei
anvelope care poate fi folosită mai mult de 30.000 km.
Astfel, probabilitatea ca dintr-un set de 4 anvelope de acest tip, cel puțin
două să poată fi folosite pentru parcurgerea a mai mult de 30.000 km se
poate obține astfel:

191
Prin urmare, probabilitatea ca cel puțin 2 anvelope dintr-un set de 4
anvelope de acest tip să poată fi folosite pentru parcurgerea a mai mult de
30.000 km este de 56,64%.

4.4. Distribuţiile Helmert-Pearson (χ 2 - hi-pătrat)


O altă familie importantă de distribuții gamma este cea obținută prin
alegerea parametrilor α = ν / 2 și β = 2:

După cum se poate observa, o astfel de distribuție este definită de


parametrul ν. Acest parametru reprezintă totodată ceea ce se numește
numărul de grade de libertate al distribuției.
Această familie de distribuții a fost descrisă pentru prima dată de către
statisticianul german Friedrich Robert Helmert în anii 1875-1876*, fiind
ulterior redescoperită în mod independent de către cel recunoscut ca fiind
principalul fondator al statisticii matematice**, statisticianul britanic Karl
Pearson.
Simbolul χ 2 (hi-pătrat) este folosit pentru a identifica valorile pe care le
poate înregistra o variabilă care urmează o astfel de distribuție.
Datorită unor teoreme importante în legătură cu aceste distribuții, ele sunt
foarte utile în statistica inferențială. Aceste teoreme sunt prezentate în
capitolul 5 al acestei lucrări.

*
Cf. Vladimir SPOKOINY, Thorsten DICKHAUS, Basics of Modern Mathematical Statistics,
Springer-Verlag, Berlin & Heidelberg, 2015, p. 172.
**
Cf. Encyclopædia Britannica, http://www.britannica.com/biography/Karl-Pearson

192
Valoarea așteptată și varianța distribuțiilor χ 2
Valoarea așteptată a unei distribuții χ 2 este egală cu parametrul ν al
acesteia. Această proprietate se poate demonstra arătând mai întâi că
valoarea așteptată a unei distribuții gamma este egală cu αβ.
Într-adevăr, valoarea așteptată a unei distribuții gamma este:

(făcând substituția t = x / β, ceea ce înseamnă că x = tβ și dx = βdt)

(integrala este chiar funcția gamma cu parametrul α + 1)

Ultima egalitate are loc pe baza proprietății funcțiilor gamma, potrivit căreia
(i + 1) = i (i) așa cum s-a arătat în capitolul 3.

193
Întrucât distribuțiile χ 2 sunt distribuții gamma cu parametrii α = ν / 2 și β
= 2, se confirmă, astfel, faptul că valoarea așteptată a unei distribuții χ 2
este*:

Varianța unei distribuții χ este egală cu 2ν. Această proprietate se poate


2

demonstra arătând mai întâi că varianța unei distribuții gamma este egală cu
αβ 2.
Pentru aceasta, trebuie determinată valoarea așteptată a distribuției
pătratului unei variabile gamma:

*
Referindu-ne din nou la distribuțiile exponențiale, care sunt distribuții gamma cu parametrii α = 1 și
β = θ, se confirmă, de asemenea, faptul că valoarea așteptată a acestora este:

194
(integrala funcției obținute este egală cu 1, deoarece este vorba chiar despre
funcția de densitate probabilistică pentru o variabilă aleatoare distribuită
după o distribuție gamma)

Se obține, astfel, într-adevăr, că varianța unei distribuții gamma este:

195
Se confirmă, prin urmare, faptul că varianța unei distribuții χ este*:
2

4.5. Distribuţiile beta


Conform celor arătate în capitolul 2, o variabilă aleatoare urmează o
distribuție beta dacă și numai dacă funcția ei de densitate probabilistică este
dată de:

unde:
α > 0;
β > 0.

Valoarea așteptată și varianța distribuțiilor beta


Se poate arăta că valoarea așteptată a unei distribuții beta cu parametrii și α
și β este egală cu α / (α + β). Într-adevăr, se poate scrie că:

*
Referindu-ne încă o dată la distribuțiile exponențiale, care sunt distribuții gamma cu parametrii α=1
și β = θ, se verifică, de asemenea, faptul că varianța acestora este:

196
(integrala este, conform proprietăților funcțiilor beta descrise în capitolul 2,
o reprezentare a funcției beta cu parametrii α + 1 și β)

(folosind reprezentarea unei funcții beta pe baza funcțiilor gamma, conform


proprietăților funcțiilor beta descrise în capitolul 2)

(folosind proprietatea funcțiilor gamma, potrivit căreia Γ (α + 1) = α · Γ


(α))

În mod asemănător se poate determina momentul de ordinul 2 al unei


distribuții beta:

197
Aceasta înseamnă că varianța unei distribuții beta este:

Aplicații ale distribuțiilor beta


Un exemplu de variabilă care poate urma o distribuție beta este proporția
din totalul restaurantelor noi deschise într-un oraș, care dau faliment.
Să presupunem, de pildă că aceasta variabilă este caracterizată la nivelul
unui anumit oraș de parametrii α = 2 și β = 5. În aceste condiții poate fi de
interes să determinăm:
a) valoarea așteptată a distribuției acestei variabile, i.e. proporția anuală de
restaurante noi care este de așteptat să dea faliment;
b) probabilitatea ca cel puțin 20% din restaurantele noi din oraș să dea
faliment într-un an.
Folosind relațiile prezentate mai sus, se obține că:
a) proporția anuală de restaurante noi care este de așteptat să dea faliment
este:

198
b) probabilitatea ca cel puțin 20% din restaurantele noi din oraș să dea
faliment într-un an este egală cu:

(folosind relația Γ(n) = (n – 1)!, pentru n = număr întreg pozitiv)

(folosind metoda substituției*, alegând u = 1 ‒ x, du = ‒dx)

*
Rezultatul se poate obține și online, cu ajutorul motorului de calcul „Wolfram Alpha”, la adresa:
http://www.wolframalpha.com/input/?i=integrate+%28%28gamma%5B7%5D%2F%28gamma%5B2%
5D*gamma%5B5%5D%29%29*x%5E%282-1%29*%281-x%29%5E%285-1%29%29+from+0.2+to+1

199
Așadar, probabilitatea ca cel puțin 20% din restaurantele noi din oraș să
dea faliment într-un an este egală cu 65,53%. Acest rezultat este
reprezentat în figura 4.6.

Figura 4.6

Utilitatea distribuțiilor beta decurge mai ales din flexibilitatea acestora.


Această proprietate este în legătură cu varietatea deosebită a formei
distribuțiilor beta.
Deseori distribuțiile beta se folosesc împreună cu distribuțiile binomiale
pentru a asocia apariției succesului din cadrul unui experiment binomial nu o
probabilitate anume (p) ci o distribuție de probabilități. De exemplu, o
distribuție beta poate fi folosită pentru a descrie o mulțime de probabilități
estimate subiectiv în legătură cu apariția unui eveniment.

Distribuția beta cu parametrii α = 1 și β = 1


Un caz particular important de distribuție beta este cel al distribuției beta
uniformă, echivalentă cu distribuția uniformă standard (a se vedea
paragraful dedicat „distribuțiilor continue uniforme” de la începutul acestui
capitol). Este vorba de distribuția beta cu parametrii α = 1 și β = 1:

200
(întrucât Γ(1) = 1 și Γ(2) = (2 ‒ 1)! = 1)

Înlocuind pe α = 1 și β = 1 în relațiile de determinare a valorii așteptate și,


respectiv, a varianței distribuțiilor beta, se poate ușor obține că valoarea
așteptată a distribuției beta uniformă (echivalentă cu distribuția uniformă
standard) este egală cu 1 / 2 = 0,5, iar varianța acesteia este egală cu 1 /
12 ≈ 0,0833. Desigur, aceleași valori se obțin folosind relațiile generale de
determinare a valorii așteptate, respectiv a varianței distribuțiilor continue
uniforme (se poate verifica ușor acest fapt pe baza celor arătate în
paragraful dedicat „distribuțiilor continue uniforme” de la începutul acestui
capitol).

4.6. Distribuţiile normale


Distribuțiile normale sunt, fără ândoială, cele mai importante și cele mai
folosite distribuții statistice.
Importanța distribuțiilor normale decurge din următoarele considerente:
- Aceste distribuții aproximează desfășurarea probabilistică a multor
fenomene naturale. De exemplu, ele pot descrie suficient de bine
manifestarea unor variabile statistice ca: înalțimea sau greutatea persoanelor
care fac parte dintr-o colectivitate; notele obținute la un examen de către
studenții care parte dintr-o anumită formație de studiu; erorile de măsurare
care se ivesc pe parcursul repetării de multe ori a unui experiment etc.
Pentru economie, poate fi de interes faptul că durata de funcționare a unui

201
produs este, de asemenea, în mod obișnuit, tot o variabilă cu o distribuție
normală;
- Ele pot aproxima foarte bine multe alte distribuții statistice continue, dar și
discrete, precum cele binomiale;
- Se poate considera că distribuțiile normale constituie „piatra unghiulară” a
distribuțiilor cu care se operează în statistica inferențială. Motivul constă în
faptul că ele reprezintă distribuții ale estimațiilor obținute la nivel de
eșantion statistic pentru un parametru care caracterizează o populație
statistică. Acest fapt este cel care explică în cea mai mare măsură
importanța acestor distribuții în cercetarea statistică.
Una dintre primele aplicații intuitive ale distribuțiilor normale a fost în
legătură cu analiza erorilor de măsurare manifestate în cadrul observațiilor
astronomice fie ca urmare a folosirii unor instrumente imperfecte, fie din
cauza lipsei de experiență a observatorilor*.
Astfel, în secolul XVII, mai exact în anul 1632, Galileo a făcut următoarele
observații în legătură cu aceste erori de măsurare**:
- Ele par de neevitat;
- Erorile mici se manifestă mai des decât cele mari;
- Ele se distribuie simetric, adică sunt la fel de predispuse în a subestima
sau în a supraestima valorile reale;
- Valoarea reală căutată se plasează în imediata vecinătate a celei mai mari
concentrări de valori obținute prin măsurători.
Cel care a făcut prima referire explicită la forma generală a distribuțiilor
normale a fost, însă, în secolul XVIII, Abraham de Moivre, statistician și
consultant al pasionaților de jocuri de noroc, deseori solicitat să facă difeite
calcule, laborioase pentru acele timpuri, în legătură cu șansele de câștig în
cadrul unor asemenea jocuri.
Acest statistician este, de fapt, cel care a observat pentru prima dată faptul
că atunci când se realizează un număr mare de probe, o distribuție binomială
poate fi suficient de bine estimată de către o curbă (curba normală), așa cum
se poate vedea, de pildă, în figura 4.7***.

*
David M. LANE (coord.). Introduction to Statistics.
http://onlinestatbook.com/Online_Statistics_Education.pdf (accesat: 2 decembrie 2015), p.255.
**
Cf.: Leonid E. MAISTROV. Probability theory: A historical sketch. Transl. Samuel KOTZ. New
York: Academic Press, 1974. Apud: Deborah J. BENNETT. Randomness. Second printing. Harvard
University Press, Cambridge, Massachusetts, London, England 1998, p 90.
(http://www.dmae.upm.es/WebpersonalBartolo/Probabilidad/2_Prob_elemental/Libros%20de%20proba
bilidad/randomness%20-%20by%20deborah%20j.%20bennett.pdf – accesat în 4 decembrie 2015)
***
David M. LANE (coord.). Introduction to Statistics.
http://onlinestatbook.com/Online_Statistics_Education.pdf (accesat: 2 decembrie 2015), pp. 253-255.

202
În urma acestei observații, el a și dedus, de altfel, formula curbei normale,
pe care a și publicat-o în 12 noiembrie 1733, aceasta constituind, astfel,
prima apariție a unei distribuții normale în literatura consacrată*.

Figura 4.7 Aproximarea cu o distribuțíe normală a disitribuției


binomiale care descrie probabilistic experimentul aruncării unei
monede de 14 ori

Mai târziu, adică la începutul secolului XIX, s-a descoperit faptul că erorile
de măsurare manifestate în cadrul observațiilor astronomice, la care se
referea, așa cum am văzut, Galileo, pot fi descrise de o distribuție
normală**. Acest fapt este datorat eforturilor independente ale americanului
Robert Adrian (1808) și ale germanului Carl Friedrich Gauss (1809) de a
descrie această distribuție și de a arăta că ea descrie foarte bine
manifestarea unor astfel de erori***.
În 1812, folosindu-se de rezultatele lui Gauss și de propriile observații în
legătură cu sumele unor numere aleatoare, Marquis Pierre-Simon Laplace a
formulat o teoremă extrem de importantă pentru statistica inferențială. Este

*
Richard L. SCHEAFFER & Linda J. YOUNG. Introduction to Probability and Its Applications. Third
Edition. Brooks/Cole, Cengage Learning, Boston, USA, 2009,, p. 249.
**
David M. LANE (coord.). Introduction to Statistics.
http://onlinestatbook.com/Online_Statistics_Education.pdf (accesat: 2 decembrie 2015), p.255.
***
Thomas DIETZ & Linda KALOF. Introduction to Social Statistics: The Logic of Statistical
Reasoning. Wiley-Blackwell, 2009, p. 231.

203
vorba despre „teorema limitei centrale”, cunoscută și sub numele de
„legea numerelor mari”.
Conform acestei teoreme, distribuția probabilistică a variabilei sumei unei
mulțimi mari de numere aleatoare independente, uniform distribuite
probabilistic (o astfel de mulțime poate fi, de exemplu, cea a rezultatelor
obținute la aruncarea cu un zar), este una cu o formă aparte, foarte apropiată
de cea a unui clopot.
Această teoremă este aplicabilă și variabilei mediei unei mulțimi de numere
aleatoare independente, uniform distribuite probabilistic, ca urmare a
faptului că aceasta este egală cu suma numerelor în cauză, raportată la
numărul acestora*.
Legea numerelor mari este remarcabilă prin faptul că, potrivit ei, ceea ce se
obține atunci când se adună sau se face media unei mulțimi mari de numere
aleatoare nu este ceva haotic ci, contrar a ceea ce ne-am putea aștepta, ceva
destul de ordonat, în orice caz mult mai ordonat decât numerele aleatoare
care fac parte din mulțimea la nivelul căreia este aplicabilă această lege.
Deoarece, în afara variabilei erorilor de măsurare manifestate în cadrul
observațiilor astronomice, multe alte variabile obținute în legătură cu
măsurători necesare eforturilor științifice ale secolului XIX, păreau să
urmeze un comportament probabilistic similar, s-a considerat că o
disttribuție care aproximează foarte bine un astfel de comportament merită
să fie numită o „distribuție normală”**.
Așa cum se poate intui și cu ajutorul figurii 4.7, o distribuție normală este o
curbă teoretică, construită pe seama unui număr infinit de observații.
Dacă X este o variabilă aleatoare care urmează o distribuție normală, atunci
funcția sa de densitate probabilistică este una care este definită de 2
parametri: media sau valoarea așteptată (), respectiv abaterea standard a
acesteia ():

unde:
x sunt valori cuprinse pe intervalul (‒,+);
 este valoarea așteptată a distribuției normale în cauză;

*
Ibidem.
**
Ibidem, p. 232.

204
 este abaterea standard a distribuției normale în cauză;
 = 3,14159...;
e = 2,71828....
După cum se poate observa, se poate vorbi despre o familie infinită de
funcții normale, orice funcție normală fiind strict determinată de cei doi
parametri: media sau valoarea așteptată (), respectiv abaterea standard a
acesteia ().
Faptul că valoarea așteptată a unei distribuții normale este egală cu  este
demonstrat mai jos:

(făcând schimbarea de variabilă (x ‒ ) /  = y  x =  y +  ; dx =


 dy)

(integrala definită de la ‒ la + dintr-o funcție normală este egală cu 1)

205
Egalitatea varianței unei distribuții normale cu 
2
și, implicit, a abaterii
standard a acesteia cu , este demonstrată mai jos:

(făcând schimbarea de variabilă (x ‒ ) /  = y  x =  y +  ; dx =


 dy)

(dat fiind faptul că atunci când y  , y e ‒y2 / 2  0)

206
(integrala definită de la ‒ la + dintr-o funcție normală este egală cu 1)

Trebuie subliniat faptul că primul dintre parametrii unei funcții normale ()
poate înregistra orice valoare cuprinsă pe intervalul (‒,+), în timp ce ,
jucând rolul abaterii standard a unei distribuții statistice, nu poate fi decât
strict pozitivă. Acest fapt determină ca orice funcție normală să fie, de
asemenea, una strict pozitivă.
Așa cum se întâmplă și în cazul oricărei alte funcții de densitate
probabilistică, f (X = x; , ) nu este echivalentă cu probabilitatea ca X =
x (aceasta fiind, așa cum s-a arătat în capitolul 2, egală întotdeauna cu 0), ci
este expresia înălțimii curbei normale pentru X = x.
De asemenea, știm, pe baza celor arătate în capitolul 2, că pentru a putea fi
o funcție de densitate probabilistică, aria de sub curba funcției f (X = x; ,
) trebuie să fie egală cu 1.
Pentru a verifica această proprietate, se poate face schimbarea de variabilă:

Deoarece atunci când x  ‒ și y  ‒, așa încât putem scrie:

207
Ultima egalitate are loc pe seama integralei lui Euler-Poisson:

În figura 4.8 sunt reprezentate 3 distribuții normale caracterizate de același


parametru , dar cu medii diferite, iar în figura 4.9 sunt reprezentate 2
distribuții normale caracterizate de același parametru , dar cu abateri
standard diferite.

Figura 4.8 Distribuțíi normale caracterizate de același parametru ,


dar cu medii diferite

208
Figura 4.9 Distribuțíi normale caracterizate de același parametru ,
dar cu abateri standard diferite

O proprietate importantă a funcțiilor normale este simetria acestora față de


axa definită de ecuaţia x = :

Simetria funcțiilor normale determină egalitatea dintre cele 3 statistici mai


importante de poziție, i.e. media aritmetică, valoarea mediană și valoarea
modală, la nivelul oricărei distribuții normale.
O altă consecință importantă a acestei proprietăți este în legătură cu funcția
de distribuție asociată unei funcții normale. Este vorba despre egalitatea
dintre două probabilități:

209
Tot pentru x =  se obţine și valoarea maximă a unei funcţii normale.
Pentru a demonstra mai ușor acest fapt, se poate arăta că funcția ln(f(x))
are valoarea sa maximă în punctul x = .
Într-adevăr, se poate scrie că:

Întrucât acest rezultat se anulează pentru x = , înseamnă că acest punct


este unul critic pentru funcția ln(f(x)). Mai mult, el este un punct de maxim,
ca urmare a faptului că cea de-a doua derivată a acestei funcții este negativă
(aceasta fiind egală cu ‒ 1 / 2).
Dat fiind însă faptul că funcția ln(f(x)) este o funcție crescătoare de x (x1 <
x2 implică ln(x1) < ln(x2)), determină ca punctul de maxim al acestei
funcții să fie și punctul de maxim al funcției f(x) (deoarece și f(x1) < f(x2)
implică ln(f(x1)) < ln(f(x2))).
Așadar:

210
Aceasta înseamnă că valoarea maximă a unei funcții normale se atinge
pentru media acesteia (), ea fiind totodată invers proporțională în raport cu
abaterea standard a funcției (). Astfel, atunci când abaterea standard este
de n ori mai mare, valoarea maximă a funcției este de n ori mai mică
(distribuția normală se aplatizează direct proporțional cu abaterea ei
standard ceea ce este în acord, desigur, cu faptul că o funcție normală este
una perfect simetrică).
De asemenea, întrucât, așa cum se va arăta mai jos, pentru punctele x =  ‒
 şi x =  +  derivata a doua a unei funcții normale se anulează,
înseamnă că acestea sunt puncte de inflexiune pentru o astfel de funcție.
Într-adevăr, se poate scrie că:

211
Întrucât atât f (x; , ), cât și  4 sunt strict pozitive, se obține apoi că:

212
Din mulțimea infinită de distribuții normale, o importanță centrală o are așa-
numita „distribuție normală standard” , i.e. distribuția normală definită de
parametrii  = 0 și  = 1, reprezentată în figura 4.10.

Figura 4.10 Distribuțía normală standard

Considerând  = 0 și  = 1 în relația care descrie funcția generală de


densitate probabilistică a distribuțiilor normale, se obține că:

Importanța centrală a distribuțíei normale standard decurge din proprietatea


acesteia de a putea fi folosită ca și etalon al distribuțiilor normale. Această
proprietate se explică prin faptul că dacă o variabilă oarecare X urmează o
213
distribuție normală, atunci și variabila rapoartelor dintre abaterile valorilor
lui X de la media lor și abaterea standard a distribuției lui X urmează tot o
distribuție normală, aceasta fiind însă chiar distribuția normală standard,
ceea ce dă posibilitatea ca probabilitățile asociate variabilei X să poată fi
determinate pe baza probabilităților asociate variabilei Z.
Variabila Z care se poate asocia oricărei variabile normale X, se numește
variabila normală standard, ea fiind variabila care măsoară abaterile
valorilor înregistrate de X de la media lor () în unități de abateri standard
():

Să considerăm, de exemplu, variabila normală X a notelor obținute de către


candidații la un examen, a căror distribuție este caracterizată prin parametrii
 = 7,5 și  = 1,25. Notei 8, pe care a obținut-o un anumit candidat, îi
corespunde, în acest caz, valoarea z a variabilei normale standard Z, egală
cu:

Aceasta înseamnă că nota 8 se abate de la media distribuției normale a


notelor cu +1,20 abateri standard.
Faptul că valorile z ale variabilei Z urmează distribuția normală standard se
poate demonstra pornind de la funcția de distribuție a acestei variabile:

Acestei funcții de distribuție îi corespunde însă funcția de densitate


probabilistică echivalentă cu funcția normală standard:

214
Ceea ce rezultă de aici este un fapt foarte important, și anume că funcția de
distribuție a unei variabile aleatoare X este echivalentă cu funcția de
distribuție normală standard obținută prin transformarea valorilor lui X
în valori Z:

Să presupunem, pentru exemplificare, că durata de funcționare a unui


anumit tip de tuburi fluorescente circulare urmează o distribuție normală cu
o valoare așteptată de 9000 de ore și o abatere standard de 1100 de ore.
Să determinăm, în aceste condiții:
a) probabilitatea ca un astfel de tub ales la întâmplare să funcționeze mai
mult de 10000 de ore;
b) probabilitatea ca un asemenea tub fluorescent să funcționeze exact 9000
de ore;
c) probabilitatea ca un tub fluorescent de acest tip să funcționeze mai puțin
de 9500 de ore;
d) probabilitatea ca un astfel de tub să funcționeze cel mult 7000 de ore.
Răspunsurile cerute se pot obține pe baza transformării variabilei normale
X, a cărei distribuție este caracterizată printr-o medie egală cu 9000 și o
215
abatere standard de 1100 în variabila normală standard conform relației
generale prezentate:

Se obține astfel că:


a) probabilitatea ca un astfel de tub fluorescent să funcționeze mai mult de
10000 de ore este egală cu*:

Așadar, probabilitatea ca un asemenea tub fluorescent să funcționeze mai


mult de 10000 de ore este egală cu 18,17%, această situație fiind
reprezentată grafic în figura 4.11.

*
Calculul P (0 < Z < 1000/1100) s-a făcut cu ajutorul motorului de calcul „Wolfram Alpha”, integrând
funcția normală standard pe intervalul 0 – 1000/1100. Acest calcul se poate verifica la adresa:
http://www.wolframalpha.com/input/?i=integrate+%281%2Fsqrt%282*pi%29*e%5E%28-
%28x%5E2%29%2F2%29+from+0+to+1000%2F1100 (accesat: 15 decembrie 2015)

216
Figura 4.11

b) probabilitatea ca un asemenea tub fluorescent să funcționeze exact 9000


de ore este egală cu 0. Explicația constă în faptul că pentru orice distribuție
probabilistică a unei variabile continue, probabilitatea ca aceasta din urmă
să înregistreze o anumită valoare particulară este întotdeauna egală cu 0, așa
cum s-a arătat în capitolul 2.
c) probabilitatea ca un tub fluorescent a cărui durată de funcționare se
distribuie conform unei distribuții normale, cu media egală cu 9000 de ore
și abaterea standard egală cu 1100 de ore, să funcționeze mai puțin de
9500 de ore este egală cu*:

*
Calculul P (0 < Z < 500/1100) s-a făcut cu ajutorul motorului de calcul „Wolfram Alpha”, integrând
funcția normală standard pe intervalul 0 – 500/1100. Acest calcul se poate verifica la adresa:
http://www.wolframalpha.com/input/?i=integrate+%281%2Fsqrt%282*pi%29*e%5E%28-
%28x%5E2%29%2F2%29+from+0+to+500%2F1100 (accesat: 16 decembrie 2015)

217
Prin urmare, este 67,53% probabil ca un asemenea tub fluorescent să
funcționeze mai puțin de 9500 de ore, situație reprezentată în figura 4.12.

Figura 4.12

d) probabilitatea ca un astfel de tub să funcționeze cel mult 7000 de ore


este egală cu probabilitatea ca el să funcționeze mai puțin de 7000 de ore,
deoarece probabilitatea de-a funcționa exact 7000 de ore este nulă*:

(având în vedere simetria unei distribuții normale)

*
Calculul P (0 < Z < 2000/1100) s-a făcut cu ajutorul motorului de calcul „Wolfram Alpha”, integrând
funcția normală standard pe intervalul 0 – 2000/1100. Acest calcul se poate verifica la adresa:
http://www.wolframalpha.com/input/?i=integrate+%281%2Fsqrt%282*pi%29*e%5E%28-
%28x%5E2%29%2F2%29+from+0+to+2000%2F1100 (accesat: 16 decembrie 2015)

218
Așadar, probabilitatea ca un asemenea tub fluorescent să funcționeze cel
mult 7000 de ore este de doar 3,45%. Interpretarea grafică pentru această
situație este redată în figura 4.13.

Figura 4.13

Folosind relația de transformare a unei variabile aleatoare normale oarecare


(X) în termenii variabilei aleatoare normale standard (Z), se pot demonstra
foarte ușor proprietățile potrivit cărora media unei distribuții normale este
egală cu parametrul , iar abaterea ei standard este egală cu parametrul .
Astfel, se poate scrie că:

(conform proprietății de liniaritate a valorii așteptate*)

*
A se vedea capitolul 2.

219
(valoarea așteptată a produsului dintre o variabilă aleatoare și o constantă
este egală cu produsul dintre acea constantă și valoarea așteptată a variabilei
aleatoare considerate*)

(valoarea așteptată a variabilei aleatoare normale standard este egală cu 0)

De asemenea, se obține că:

(conform relației pentru varianța unei transformări liniare** și potrivit


faptului că varianța variabilei aleatoare normale standard este egală cu 1)

Forma distribuțiilor normale


O proprietate importantă a distribuțiilor normale constă în faptul că ambii
coeficienți gamma pentru caracterizarea formei acestora sunt egali cu 0.
În ce privește coeficientul de oblicitate 1, acesta este intuitiv egal cu 0
datorită simetriei distribuțiilor normale, care determină ca momentul centrat
de ordinul 3 să fie egal cu 0 (pentru orice distribuție simetrică, cuburile
abaterilor negative de la media aritmetică sunt anulate de cuburile abaterilor
pozitive de la media aritmetică).
Folosind relația de determinare a momentului centrat de ordinul 3, precum și
schimbarea de variabilă (x ‒ ) /  = y  x =  y +  ; dx =  dy, se
poate scrie că:

*
Cf. capitolul 2.
**
Cf. capitolul 2.

220
(dat fiind faptul că atunci când y  , y2 e ‒y2 / 2  0, deoarece e ‒y2 / 2
tinde mai repede spre  decât y2)

Aceasta înseamnă că:

221
Folosind relația de determinare a momentului centrat de ordinul 4, precum și
schimbarea de variabilă (x ‒ ) /  = y  x =  y +  ; dx =  dy, se
poate arăta că și cel de-al doilea coeficient gamma pentru caracterizarea
formei (2), este egal cu 0. Astfel:

222
Aceasta înseamnă că:

Prin urmare, orice distribuție normală are oblicitate nulă și nu prezintă exces
de kurtosis. Aceasta înseamnă că toate distribuțiile normale sunt
caracterizate prin aceeași formă.
Într-adevăr, ceea ce poate diferenția între ele două sau mai multe distribuții
normale nu poate fi decât scara dată de valoarea abaterii standard. Revenind
la exemplul anterior privind durata de funcționare a unor tuburi fluorescente
circulare, care urmează o distribuție normală cu o valoare așteptată de
9000 de ore și o abatere standard de 1100 de ore, se poate arăta că
această distribuție este caracterizată, de asemenea, de un exces de kurtosis
nul, deși, aparent, ea ar fi, conform figurilor 4.11-4.13, o distribuție
platicurtică.
Pentru aceasta este suficient să reprezentăm distribuția la scara dată de
valoarea abaterii ei standard. În figura 4.14 sunt reprezentate două distribuții
normale. Prima este distribuția normală standard, iar cea de-a doua este
distribuția normală caracterizată de parametrii  = 9000 și de  = 1100.
Scara folosită pentru reprezentarea celor două distribuții este egală cu
valoarea  pentru fiecare caz în parte ( = 1 și, respectiv,  = 1100).
Precum se observă, cele două distribuții au aceeași formă.

223
Figura 4.14

4.7. Distribuţiile log-normale


Dacă o variabilă Y = ln (X) urmează o distribuție normală, atunci variabila
X urmează o distribuție log-normală, dată de funcția de densitate
probabilistică definită de parametrii  și s:

unde:
m  R;
s > 0.

224
Această funcție poate servi ca și funcție de densitate probabilistică deoarece
este pozitivă pentru orice valoarea a lui x și:

(făcând schimbarea de variabilă t = (ln x – m) / s; dt = 1 / (x s) dx)

Ultima egalitate exprimă proprietatea funcției normale standard de a fi


funcție de densitate probabilistică.
Funcția de distribuție a unei variabile log-normale X este:

(făcând schimbarea de variabilă t = (ln u – m) / s; dt = 1 / (u s) du)

Se poate observa astfel că funcția de distribuție a unei variabile log-normale


X este chiar funcția de distribuție normală standard F [(ln x – m) / s].
Aceasta înseamnă că pentru valorile pozitive ale unei variabile log-normale
X, variabila Y = (ln X – m) / s urmează distribuția normală standard.
În timp ce o distribuție normală poate caracteriza o variabilă obținută ca și
sumă a unui mare număr de variabile independente, identic distribuite, o
distribuție log-normală poate caracteriza o variabilă obținută ca și produs al
unui mare număr de variabile independente, identic distribuite.
Parametrii care definesc o distribuție log-normală, m și s, nu sunt
echivalenți (ca în cazul parametrilor  și  care definesc o distribuție

225
normală) cu valoarea așteptată și cu abaterea standard a distribuției. O altă
deosebire importantă față de distribuțiile normale, constă în faptul că
distribuțiile log-normale sunt distribuții asimetrice cu coadă la dreapta. În
figura 4.15 este reprezentată pentru exemplificare distribuția log-normală cu
parametrii m = 4 și s = 1.

Figura 4.15 Distribuția log-normală cu parametrii m = 4 și s = 1

Importanța acordată acestor distribuții a crescut în ultimii ani, ca urmare a


descoperirii unor diverse aplicații ale lor, inclusiv în domeniul economic.
Dintre acestea le putem aminti, de exemplu, pentru scopul acestei lucrări, pe
cele privitoare la distribuția veniturilor populației și pe cele în legătură cu
tehnicile moderne de estimare a prețurilor viitoare ale opțiunilor financiare*.
Fabio Clementi și Mauro Gallegati au descoperit, de pildă, în urma unui
studiu realizat pe baza unor date statistice din Germania, S.U.A. și Marea
Britanie**, că distribuția veniturilor mici și mijlocii din aceste țări, venituri

*
Opțiunile sunt contracte încheiate între două părți, prin care se stipulează dreptul dar nu și obligația
uneia dintre părți (cumpărătorul opțiunii) de a întreprinde o acțiune prestabilită, care constă, de obicei,
în a cumpăra sau a vinde celeilalte părți un anumit activ suport.
**
Fabio CLEMENTI & Mauro GALLEGATI, Pareto’s Law of Income Distribution: Evidence for
Germany, the United Kingdom, and the United States,
https://ideas.repec.org/p/wpa/wuwpmi/0505006.html

226
care sunt obținute de circa 97% ‒ 99% din populație, poate fi suficient de
bine descrisă de o distribuție log-normală.
În ce privește folosirea distribuțiilor log-normale în cadrul tehnicilor
moderne de estimare a prețurilor viitoare ale opțiunilor financiare, se poate
da ca exemplu celebrul model Black-Scholes, denumit așa după numele
economiștilor Fischer Black și Myron Scholes, cei care l-au dezvoltat încă
din anul 1973 în cadrul lucrării lor „The Pricing of Options and Corporate
Liabilities” *.
Astfel, una dintre premisele acestui model este că randamentele opțiunilor
urmează aproximativ o distribuție log-normală.

*
Fischer BLACK & Myron SCHOLES, The Pricing of Options and Corporate Liabilities, Journal of
Political Economy, Vol. 81, No. 3 (Mai - Iunie, 1973), University of Chicago Press, pp. 637-654,
http://www.jstor.org/stable/1831029

227
228
DISTRIBUȚII DE
EȘANTIONARE 5.

OBIECTIVELE CAPITOLULUI

Obiectivul principal al acestui capitol este de a prezenta principalele distribuţii


statistice probabilistice de eșantionare, ajutându-vă:
 să rețineți care sunt principalele caracteristici ale distribuţiilor de eșantionare ale
mediilor;
 să înţelegeţi relaţiile de determinare a probabilităţilor cu ajutorul distribuţiilor
speciale de eșantionare χ 2, t și F, precum și utilitatea acestora pentru statistica
inferențială (cu exemple din domeniul economic).
230
5.1. Distribuția de eșantionare a mediilor (distribuțía
variabilei )
Distribuția de eșantionare a mediilor (distribuțía variabilei ) este
distribuția probabilistică a tuturor valorilor posibile ale variabilei mediilor de
eșantionare ( ), care se pot înregistra atunci când este realizat un eșantion
de mărime n din populația statistică considerată (populația „părinte”).
Pentru exemplificare, să considerăm ca și populație „părinte” o populație
statistică de dimensiune foarte mică, și anume cea formată doar din 4
angajați ai unei companii, pentru care se alege ca și variabilă statistică de
interes variabila numărului de ore lucrate peste program. Să presupunem,
mai departe, că valorile înregistrate de către această variabilă la nivelul
celor 4 angajați sunt: 0, 1, 2 și, respectiv, 3.
Vom arăta în cele ce urmează, pe baza exemplului considerat, că valoarea
așteptată a variabilei pentru eșantioanele de volum n care se pot construi
dintr-o populație „părinte” este egală, indiferent de valoarea lui n, (n < N,
N fiind volumul populației „părinte”) și de tipul de eșeantionare aleasă (cu
repetare sau fără repetare) cu media valorilor acestei populații (), i.e:

Pentru aceasta, să considerăm în exemplul nostru pe n = 3. Numărul de


eșantioane de volum n = 3, care se pot forma din populația de volum N =
4 considerată depinde de tipul de eșantionare aleasă.
Astfel, dacă se alege eșantionarea fără repetare, se vor putea construi 24 de
astfel de eșantioane:

Toate aceste 24 eșantioane posibile sunt prezentate în tabelul 5.1.


Dacă se alege eșantionarea cu repetare, se vor putea construi 64 de astfel
de eșantioane:

Toate aceste 64 eșantioane posibile sunt prezentate în tabelul 5.2.

231
Tabelul 5.1 Eșantioane obținute prin metoda eșantionării fără repetare
pentru cazul populației „părinte” a valorilor 0, 1, 2, 3
Prima A doua A treia
Eșantion
valoare valoare valoare
obținut
extrasă extrasă extrasă
2 0, 1, 2
1
3 0, 1, 3
0 1 0, 2, 1
2
3 0, 2, 3
1 0, 3, 1
3
2 0, 3, 2
2 1, 0, 2
0
3 1, 0, 3
0 1, 2, 0
1 2
3 1, 2, 3
0 1, 3, 0
3
2 1, 3, 2
1 2, 0, 1
0
3 2, 0, 3
0 2, 1, 0
2 1
3 2, 1, 3
0 2, 3, 0
3
1 2, 3, 1
1 3, 0, 1
0
2 3, 0, 2
0 3, 1, 0
3 1
2 3, 1, 2
0 3, 2, 0
2
1 3, 2, 1

232
Tabelul 5.2 Eșantioane obținute prin metoda eșantionării cu repetare
pentru cazul populației „părinte” a valorilor 0, 1, 2, 3
Prima A doua A treia
Eșantion
valoare valoare valoare
obținut
extrasă extrasă extrasă
0 0, 0, 0
1 0, 0, 1
0
2 0, 0, 2
3 0, 0, 3
0 0, 1, 0
1 0, 1, 1
1
2 0, 1, 2
3 0, 1, 3
0
0 0, 2, 0
1 0, 2, 1
2
2 0, 2, 2
3 0, 2, 3
0 0, 3, 0
1 0, 3, 1
3
2 0, 3, 2
3 0, 3, 3
0 1, 0, 0
1 1, 0, 1
0
2 1, 0, 2
3 1, 0, 3
1
0 1, 1, 0
1 1, 1, 1
1
2 1, 1, 2
3 1, 1, 3

233
Tabelul 5.2 - continuare
0 1, 2, 0
1 1, 2, 1
2
2 1, 2, 2
3 1, 2, 3
1
0 1, 3, 0
1 1, 3, 1
3
2 1, 3, 2
3 1, 3, 3
0 2, 0, 0
1 2, 0, 1
0
2 2, 0, 2
3 2, 0, 3
0 2, 1, 0
1 2, 1, 1
1
2 2, 1, 2
3 2, 1, 3
2
0 2, 2, 0
1 2, 2, 1
2
2 2, 2, 2
3 2, 2, 3
0 2, 3, 0
1 2, 3, 1
3
2 2, 3, 2
3 2, 3, 3
0 3, 0, 0
1 3, 0, 1
3 0
2 3, 0, 2
3 3, 0, 3
234
Tabelul 5.2 - continuare
0 3, 1, 0
1 3, 1, 1
1
2 3, 1, 2
3 3, 1, 3
0 3, 2, 0
1 3, 2, 1
3 2
2 3, 2, 2
3 3, 2, 3
0 3, 3, 0
1 3, 3, 1
3
2 3, 3, 2
3 3, 3, 3

Se poate constata faptul important că valorile care apar în urma eșantionării


cu sau fără repetare definesc la nivelul celor n extrageri tot atâtea variabile
aleatoare independente (Xi, i = 1, 2, ..., n) ale valorilor care compun
populația „părinte”.

Valoarea așteptată a distribuției de eșantionare a mediilor


O statistică importantă pentru caracterizarea distribuției de eșantionare a
mediilor este, precum se știe, valoarea ei așteptată.
Folosind relația generală de determinare a valorii așteptate a unei variabile
aleatoare, să calculăm valoarea așteptată a distribuției variabilei
corespunzătoare mulțimii tuturor eșantioanelor posibile de volum n = 3,
care se pot forma prin eșantionarea fără repetare la nivelul populației de
valori 0, 1, 2, 3 . Toate aceste eșantioane posibile au fost prezentate deja
în tabelul 5.1.
În tabelul 5.3 este prezentată distribuția probabilistică a variabilei
corespunzătoare celor 4 variante de eșantioane posibile în funcție de
valorile lor componente (indiferent de momentul apariției lor).

235
Tabelul 5.3
Valori Frecvență
Variante ale Probabilitate de
apărute în de apariție, apariție,
variabilei
eșantion, conform
mediilor de tabelului
indiferent de
eșantionare, 5.1,
momentul
j
apariției lor nj
0, 1, 2 1,00 6 6 / 24 = 0,25
0, 1, 3 1,33 6 0,25
0, 2, 3 1,67 6 0,25
1, 2, 3 2,00 6 0,25
Total 24 1,00

Pe baza datelor din tabelul 5.3, rezultă că:

Se poate observa faptul că valoarea așteptată a distribuției variabilei este


egală chiar cu media aritmetică a valorilor componente ale populației
„părinte”:

Această egalitate nu este deloc întâmplătoare. În realitate, ea are loc


indiferent de valorile care compun populația „părinte” și, de asemenea,
indiferent dacă eșantionarea se realizează cu sau fără repetare.
Demonstrația acestui fapt se poate face pe baza proprietăților valorii
așteptate în legătură cu suma unor variabile aleatoare (i.e. proprietatea de
liniaritate a valorii așteptate) și, respectiv, cu înmulțirea unei variabile
aleatoare cu o constantă.
Astfel, se poate scrie:

236
unde:
este variabila aleatoare a valorilor mediilor determinate la nivelul
eșantioanelor de mărime n care se pot forma din populația „părinte”
considerată;
Xi, (i = 1, 2, ..., n) reprezintă cele n variabile aleatoare ale valorilor
posibile la nivelul celor n extrageri necesare în cadrul eșantionării.

Varianța distribuției de eșantionare a mediilor în cazul eșantionării cu


repetare
Cea de-a doua statistică importantă pentru caracterizarea distribuției de
eșantionare a mediilor este varianța acesteia.
Intuitiv, este de așteptat ca varianța distribuției de eșantionare a mediilor
să fie mai mică decât varianța distribuției valorilor care compun populația
„părinte” din care se extrag aleator eșantioanele. Această intuiție se bazează
pe faptul că este de așteptat ca abaterile dintre valorile și media lor (care,
precum am văzut mai înainte, este egală cu media valorilor populației
„părinte”, ), să fie în cea mai mare parte mai mici față de abaterile dintre
valorile populației „părinte” și media lor, deoarece valorile depind, cel
mai probabil, atât de valori mai mici decât , cât și de valori mai mari decât
, ceea ce face ca ele să se apropie de valoarea lui .
Tot intuitiv, deoarece probabilitatea ca valorile să depindă atât de valori
mai mici decât , cât și de valori mai mari decât , crește atunci când
numărul acestor valori crește, este de așteptat ca varianța distribuției de
eșantionare a mediilor să scadă pe măsură ce volumul eșantioanelor (n)
crește.
Mai mult decât atât, pe baza proprietăților varianței în cazul unor variabile
independente, se poate arăta că relația dintre varianța distribuției de
237
și varianța valorilor populației „părinte” ( ) în
2
eșantionare a mediilor
cazul eșantionării cu repetare este una care se poate formula matematic
astfel:

unde n reprezintă volumul eșantioanelor extrase aleator din populația


populației „părinte”.
Demonstrația acestei relații este următoarea:

Pentru exemplificare, să calculăm varianța distribuției variabilei


corespunzătoare mulțimii tuturor eșantioanelor posibile de volum n = 3,
care se pot forma prin eșantionarea cu repetare la nivelul populației de
valori 0, 1, 2, 3 . Toate aceste eșantioane posibile au fost prezentate deja
în tabelul 5.2.
În tabelul 5.4 este prezentată distribuția probabilistică a variabilei
corespunzătoare celor 20 variante de eșantioane posibile în funcție de
valorile lor componente (indiferent de momentul apariției lor).
Pe baza distribuției probabilistice din tabelul 5.4 este construită apoi, în
tabelul 5.5, distribuția probabilistică a variabilei corespunzătoare celor
10 variante de eșantioane posibile în funcție de valorile lor așteptate.

238
Tabelul 5.4

Valori apărute Probabilitate de


Frecvență
în eșantion, Medii de apariție,
de
indiferent de eșantionare,
apariție,
momentul i
apariției lor
ni

0, 1, 2 1,00 6 6 / 64 =
0,093750
0, 1, 3 1,33 6 0,093750
0, 2, 3 1,67 6 0,093750
1, 2, 3 2,00 6 0,093750
0, 0, 1 0,33 3 0,046875
0, 0, 2 0,67 3 0,046875
0, 0, 3 1,00 3 0,046875
1, 1, 0 0,67 3 0,046875
1, 1, 2 1,33 3 0,046875
1, 1, 3 1,67 3 0,046875
2, 2, 0 1,33 3 0,046875
2, 2, 1 1,67 3 0,046875
2, 2, 3 2,33 3 0,046875
3, 3, 0 2,00 3 0,046875
3, 3, 1 2,33 3 0,046875
3, 3, 2 2,67 3 0,046875
0, 0, 0 0,00 1 0,015625
1, 1, 1 1,00 1 0,015625
2, 2, 2 2,00 1 0,015625
3, 3, 3 3,00 1 0,015625
Total 64 1,000000

239
Tabelul 5.5
Probabilitate de
Medii de Frecvență apariție,
eșantionare, de apariție,
j nj

0,00 1 1 / 64 = 0,015625
0,33 3 0,046875
0,67 6 0,093750
1,00 10 0,156250
1,33 12 0,187500
1,67 12 0,187500
2,00 10 0,156250
2,33 6 0,093750
2,67 3 0,046875
3,00 1 0,015625
Total 64 1,000000

Pe baza tabelului 5.5, se poate construi acum tabelul 5.6, în care sunt
realizate calculele necesare determinării varianței valorilor înregistrate de
către variabila .
Potrivit acestor calcule, varianța valorilor înregistrate de către variabila
este:

240
Tabelul 5.6

Medii de Probabilitate
eșantionare, de apariție,
j

0,00 0,015625 0,000000 0,000000


0,33 0,046875 0,015625 0,005208
0,67 0,093750 0,062500 0,041667
1,00 0,156250 0,156250 0,156250
1,33 0,187500 0,250000 0,333333
1,67 0,187500 0,312500 0,520833
2,00 0,156250 0,312500 0,625000
2,33 0,093750 0,218750 0,510417
2,67 0,046875 0,125000 0,333333
3,00 0,015625 0,046875 0,140625
Total 1,000000 1,500000 2,666667

Astfel, se verifică, într-adevăr, faptul că:

241
Varianța distribuției de eșantionare a mediilor în cazul eșantionării
fără repetare
În cazul eșantionării fără repetare, variabilele aleatoare corespunzătoare
celor n extrageri sunt, precum se știe, dependente. Aceasta înseamnă că
valoarea covarianței pentru două astfel de variabile este diferită de 0.
În cele ce urmează, se va putea vedea că pentru a ajunge la relația de
determinare a varianței distribuției de eșantionare a mediilor în cazul
eșantionării fără repetare, este necesar să obținem, mai întâi, o relație de
determinare a covarianței pentru oricare două variabile aleatoare (Xi și Xj)
corespunzătoare celor n extrageri în funcție de varianța valorilor care
compun populația „părinte” ( 2).
Astfel, varianța variabilei în cazul eșantionării fără repetare este:

242
unde 1 ≤ i ≠ j ≤ n.
Ca și în cazul eșantionării cu repetare, varianța oricărei variabile Xi,
corespunzătoare extragerii de ordinul i, 1 ≤ i ≤ n, este egală cu varianța
valorilor care compun populația „părinte” ( 2):

Prin urmare, se obține că:

unde 1 ≤ i ≠ j ≤ n.

243
Deoarece, în cazul eșantionării cu repetare, variabilele corespunzătoare
celor n extrageri sunt independente, covarianța dintre oricare două variabile
Xi și Xj, 1 ≤ i ≠ j ≤ n, este egală cu 0, ceea ce face ca varianța distribuției
de eșantionare a mediilor să fie egală, așa cum s-a arătat deja, cu  / n.
2

În cazul eșantionării fără repetare, dependența dintre variabilele Xi,


corespunzătoare celor n extrageri, face ca valoarea covarianței dintre
oricare două variabile Xi și Xj, 1 ≤ i ≠ j ≤ n, să fie diferită de 0. Se poate
arăta, însă, că aceasta se poate determina în funcție de varianța valorilor
care compun populația „părinte” ( 2).
Astfel, dat fiind faptul că valorile extrase pe parcursul celor n extrageri nu
se repetă, se poate scrie, pentru început, că valoarea covarianței dintre
oricare două variabile Xi și Xj (1 ≤ i ≠ j ≤ n), corespunzătoare celor n
extrageri, este:

unde 1 ≤  ≠ β ≤ N;
N · (N – 1) = numărul total de combinații între abaterile xα –  și abaterile
xβ – . Aceasta înseamnă că fiecare astfel de combinație are asociată o
probabilitate egală cu 1 / [N · (N – 1)].
Determinarea covarianței C (Xi, Xj), 1 ≤ i ≠ j ≤ n, în funcție de varianța
valorilor care compun populația „părinte” ( 2) se poate deduce pe baza
următoarelor egalități care au loc atunci când 1 ≤  ≠ β ≤ N:

244
(întrucât suma abaterilor unui grup de valori de la media lor este egală
întotdeauna cu 0)

(întrucât suma pătratelor abaterilor valorilor oricărei variabilă Xi,


corespunzătoare extragerii i, de la media acestora (egală cu media valorilor
245
componente ale populației „părinte”,  ) este egală întotdeauna cu varianța
valorilor componente ale populației „părinte”,  )
2

Așadar, relația de determinare a covarianței C (Xi, Xj), 1 ≤ i ≠ j ≤ n, în


funcție de varianța valorilor care compun populația „părinte” ( ) este:
2

Conform acestui rezultat, se obține, astfel, că:

Pentru exemplificare, să considerăm din nou construirea fără repetare a


eșantioanelor de mărime 3 din valorile populației „părinte” 0, 1, 2, 3 ,
descrise cu ajutorul tabelului 5.1. Conform celor arătate mai sus, valoarea
covarianței pentru oricare două variabile Xi și Xj, 1 ≤ i ≠ j ≤ 3, este pentru
acest exemplu:

246
unde 1 ≤  ≠ β ≤ 4.
Întrucât valorile pe care le pot înregistra variabilele xα și xβ sunt valorile
populației „părinte” 0, 1, 2, 3 , ale căror medie este egală cu (0 + 1 + 2
+ 3) / 4 = 1,5, înseamnă că, potrivit calculelor din tabelul 5.7, putem scrie:

Tabelul 5.7
xα xβ xα –  xβ –  (xα – ) · (xβ – )
0 1 -1,5 -0,5 0,75
0 2 -1,5 0,5 -0,75
0 3 -1,5 1,5 -2,25
1 0 -0,5 -1,5 0,75
1 2 -0,5 0,5 -0,25
1 3 -0,5 1,5 -0,75
2 0 0,5 -1,5 -0,75
2 1 0,5 -0,5 -0,25
2 3 0,5 1,5 0,75
3 0 1,5 -1,5 -2,25
3 1 1,5 -0,5 -0,75
3 2 1,5 0,5 0,75
Sumă -5,00
-5 / 12 =
Medie
= -0,4167 = C (xα, xβ)

247
Prin urmare, varianța variabilei este:

Această valoare a varianței variabilei se poate verifica, într-adevăr, la


nivelul distribuției acestei variabile, preluată din tabelul 5.3 în tabelul 5.8.

Tabelul 5.8

Variante ale Probabilitate de


variabilei apariție,
‒  ( )] · P ( j)
2
mediilor de [ j
eșantionare,
j

1,00 0,25 (1 ‒ 1,5) · 0,25 =


1,33 0,25 0,0625
0,0069
1,67 0,25 0,0069
2,00 0,25 0,0625
Total 1,00 0,1389 = V ( )

Abaterea standard a distribuției de eșantionare a mediilor sau


„eroarea standard a mediei”
Pornind de la relațiile obținute pentru varianța distribuției de eșantionare a
mediilor , se pot obține imediat și relațiile de determinare a abaterii
standard a distribuției de eșantionare a mediilor .

248
Astfel, în cazul eșantionării cu repetare, pentru abaterea standard a
distribuției de eșantionare a mediilor este valabilă relația:

În cazul eșantionării fără repetare, pentru abaterea standard a distribuției de


eșantionare a mediilor este valabilă relația:

Indiferent de tipul de eșantionare, abaterea standard a distribuției de


eșantionare a mediilor se mai numește și „eroarea standard a mediei”.
Această denumire sugerează faptul că orice medie poate fi văzută ca o
estimare a mediei populației „părinte”, în condițiile în care se cunoaște
faptul că niciun eșantion de mărime n < N (N fiind volumul populației
„părinte”) nu poate reprezenta perfect populația „părinte” din care el
provine, ceea ce justifică așteptarea unor anumite erori de estimare a
mediei populației „părinte” () prin media eșantionului extras ( ). Este, de
altfel, firească așteptarea unor astfel de erori pentru orice statistică
referitoare la populația „părinte” și estimată pe baza statisticilor
corespunzătoare determinate la nivel de eșantion extras din populația
„părinte”.
În practică sunt mai probabile situațiile în care nu se cunoaște cu exactitate
niciuna dintre statisticile referitoare la populația „părinte” (,  2 sau alte
statistici de interes). De asemenea, în astfel de situații nu se pot cunoaște
nici statisticile corespunzătoare la nivelul distribuției de eșantionare a
mediilor ( ( ), V ( ) sau alte statistici de interes).
La ce ajută, în aceste condiții, cunoașterea relațiilor dintre statisticile
referitoare la populația „părinte” și cele referitoare la distribuția de
eșantionare a mediilor ?
Utilitatea acestor relații, care, în fapt, reclamă referirea la abaterea standard
a distribuției de eșantionare a mediilor ca la o „eroare standard a
mediei”, constă în faptul că această statistică poate fi folosită în testarea
unor ipoteze privitoare la o populație „părinte” pe baza unor rezultate
obținute la nivelul unui eșantion extras din această populație „părinte”.
Explicația acestui fapt pornește de la interpretarea care se poate formula pe
baza erorii standard a mediei în legătură cu probabilitatea asociată unei
valori determinată la nivelul unui eșantion de mărime n, interpretare care

249
are la bază următoarea teoremă (formulată în temeiul unei importante
teoreme a matematicianului rus Pafnuti Lvovici Cebâșev):

Pentru orice constantă c, probabilitatea ca o valoare determinată la


nivelul unui eșantion de mărime n, să ia valori între  ‒ c și  + c
este egală cu cel puțin 1 ‒  / nc . Atunci când n tinde către
2 2

infinit, această probabilitate tinde spre 1.

Să revenim la distribuția valorilor determinate pentru eșantioanele de


mărime n = 3 extrase din populația „părinte” compusă din valorile 0, 1,
2, 3.
În cazul eșantionării cu repetare, distribuția probabilistică a acestor valori a
fost prezentată în tabelul 5.6. În tabelul 5.9, este reluată această distribuție,
pentru a se calcula, de această dată, valorile cumulate ale probabilităților în
jurul mediei acestei distribuții, egală, așa cum s-a arătat deja, cu 1,5.

Tabelul 5.9

Medii de Probabilitate Probabilități


eșantionare, de apariție, cumulate în
j jurul mediei

0,00 0,015625 0,500000


0,33 0,046875 0,484375
0,67 0,093750 0,437500
1,00 0,156250 0,343750
1,33 0,187500 0,187500

1,67 0,187500 0,187500


2,00 0,156250 0,343750
2,33 0,093750 0,437500
2,67 0,046875 0,484375
3,00 0,015625 0,500000
Total 1,000000
250
Abaterea standard a valorilor de la media lor aritmetică este, în acest caz,
egală cu:

Întrucât media valorilor este egală cu media valorilor care compun


populația „părinte”, i.e. 1,5, rezultă că:

Conform tabelului 5.6, se poate constata că:


- în intervalul (0,8545; 2,1455), care corespunde variației de o abatere
standard în jurul mediei aritmetice a distribuției valorilor , se găsesc
34,3750% · 2 = 68,75% din valorile ;
- în intervalul (0,2090; 2,7910), care corespunde variației de 2 abateri
standard în jurul mediei aritmetice a distribuției valorilor , se găsesc
48,4375% · 2 = 96,875% din valorile ;
- în intervalul (‒0,4365; 3,4365) , care corespunde variației de 3 abateri
standard în jurul mediei aritmetice a distribuției valorilor , se găsesc toate
valorile .
Întrucât aceste procente sunt foarte apropiate de valorile caracteristice în
acest sens unei distribuții normale (≈ 68%, 95% și, respectiv, 99,7%) se
poate afirma că forma distribuției valorilor este, în acest caz, foarte
apropiată de cea a unei distribuții normale, așa cum se poate vedea și în
figura 5.1.
În cazul eșantionării fără repetare, distribuția probabilistică a valorilor
determinate pentru eșantioanele de mărime n = 3 extrase din populația
„părinte” compusă din valorile 0, 1, 2, 3 a fost prezentată în tabelul 5.8.
În tabelul 5.10, este reluată această distribuție, pentru a se calcula, de
această dată, valorile cumulate ale probabilităților în jurul mediei acestei
distribuții.

251
Abaterea standard a valorilor de la media lor aritmetică este, în acest caz,
egală cu:

Figura 5.1 Distribuția valorilor determinate pentru eșantioanele de


mărime n = 3 extrase cu repetare din populația „părinte” compusă din
valorile 0, 1, 2, 3

Întrucât media valorilor este egală cu media valorilor care compun


populația „părinte”, i.e. 1,5, rezultă că:

Conform tabelului 5.10, se poate constata că:


252
- în intervalul (1,1273; 1,8727), care corespunde variației de o abatere
standard în jurul mediei aritmetice a distribuției valorilor , se găsesc 25%
· 2 = 50% din valorile ;
- în intervalul (0,7546; 2,2454), care corespunde variației de 2 abateri
standard în jurul mediei aritmetice a distribuției valorilor , se găsesc deja
toate valorile ;
- în intervalul (0,3820; 2,6180) , care corespunde variației de 3 abateri
standard în jurul mediei aritmetice a distribuției valorilor , se găsesc toate
valorile .

Tabelul 5.10

Medii de Probabilitate Probabilități


eșantionare, de apariție, cumulate în
j jurul mediei

1,00 0,25 0,50


1,33 0,25 0,25

1,67 0,25 0,25


2,00 0,25 0,50
Total 1,000000

Așa cum se poate vedea în figura 5.2, distribuția probabilistică a valorilor


este, de această dată, una echiprobabilă.

253
Figura 5.2 Distribuția valorilor determinate pentru eșantioanele de
mărime n = 3 extrase fără repetare din populația „părinte” compusă
din valorile 0, 1, 2, 3

Varianța distribuției de eșantionare a mediilor în cazul eșantionării


dintr-o populație „părinte” infinită
În cazul extragerii de eșantioane de mărime n dintr-o populație „părinte”
infinită, varianța distribuției de eșantionare a mediilor acestora ( ) este de
n ori mai mică decât varianța populației „părinte” ( 2), indiferent dacă
eșantionarea se face cu sau fără repetare.
Se întâmplă așa deoarece atunci când N  ∞, raportul (N – n) / (N – 1)
 1.

5.2. Teorema limitei centrale


Extrem de importantă pentru statistica inferențială este teorema limitei
centrale:

254
Dacă X1, X2, ... Xn formează un eșantion extras aleator dintr-o
populație infinită de valori cu media  și varianța  , atunci variabila
2

Z,

urmează la limită, i.e. pentru n  ∞, distribuția normală standard.

Această teoremă explică de fapt importanța deosebită a distribuțiilor


normale, în particular a distribuției normale standard, pentru statistica
inferențială.
În temeiul acestei teoreme, distribuțiile normale pot fi folosite, de exemplu,
la inferențierea statistică în legătură cu media unei populații „părinte” de
valori sau în legătură cu diferența dintre mediile a două populații „părinte”
de valori. Folosirea distribuțiilor normale în aceste scopuri poate fi însă
limitată de doi factori:
a) mărimea eșantioanelor realizate în cadrul efortului de inferențiere
statistică;
b) posibilitatea de cunoaștere a valorii  2.
Din fericire, limitele existente în folosirea distribuțiilor normale în efortul de
inferențiere statistică pot fi depășite cu ajutorul anumitor distribuții de
eșantionare speciale, care fac obiectul paragrafului care urmează.

5.3. Distribuții de eșantionare speciale (χ 2, t și F)


Distribuțiile Helmert-Pearson sau χ 2
În capitolul 4 a fost prezentată o familie importantă de distribuții gamma,
i.e. familia distribuțiilor Helmert-Pearson sau χ 2, menționându-se faptul că
acestea sunt deosebit de utile pentru statistica inferențială. Utilitatea
deosebită a distribuțiilor χ 2 pentru statistica inferențială se datorează
următoarelor teoreme*:

*
Demonstrațiile teoremelor 1-4 depășesc scopul lucrării de față. De asemenea, nu este demonstrată în
lucrarea de față prima parte a teoremei 5. Cea de-a doua parte a acestei teoreme este însă demonstrată
mai jos, la paginile 258-261.

255
1) Dacă o variabilă aleatoare X urmează distribuția normală standard
(distribuția normală standard este prezentată în paragraful 4.6), atunci
variabila X urmează o distribuție χ cu parametrul ν = 1;
2 2

2) Dacă X1, X2, ... Xn sunt variabile aleatoare independente care urmează
fiecare distribuții normale standard, atunci variabila Y a sumei variabilelor
X12, X22, ... Xn2 urmează o distribuție χ 2 cu parametrul ν = n;
3) Dacă X1, X2, ... Xn sunt variabile aleatoare independente care urmează
fiecare distribuții χ cu parametrii ν1, ν2, ... și, respectiv, νn, atunci variabila
2

Y a sumei variabilelor X1, X2, ... Xn urmează o distribuție χ 2 cu parametrul


ν = ν1 + ν2 + ... + νn;
4) Dacă X1 și X2 sunt variabile aleatoare independente, iar X1 urmează o
distribuție χ cu parametrul ν1, în timp ce variabila sumei acestora, X1 +
2

X2, urmează o distribuție χ 2 cu parametrul ν > ν1, atunci variabila X2


urmează o distribuție χ cu parametrul ν2 = ν ‒ ν1;
2

5) Dacă și s2 sunt media și varianța unui eșantion aleator de mărime n,


extras dintr-o populație „părinte” cu media  și varianța  , atunci:
2

2
a) și s sunt variabile independente;
b) variabila aleatoare (n ‒ 1) s2 /  2 urmează o distribuție χ 2 cu
parametrul ν = n ‒ 1 grade de libertate.
Toate aceste teoreme sunt utile în testarea unor ipoteze statistice. În
particular, cea de 5-a teoremă este utilă pentru inferențierea în legătură cu
varianța statistică.
2
Este de subliniat faptul că varianța unui eșantion aleator (s ) de mărime n
se determină cu relația:

Împărțirea sumei pătratelor abaterilor de la media eșantionului la n ‒ 1 și nu


la n face ca valoarea așteptată a lui s2 în cazul unei populații „părinte”
infinite să fie egală cu varianța acesteia din urmă ( 2):

256
Mai departe, notând xi ‒  = ai se poate scrie:

(deoarece ai =  xi ‒  ) = xi ‒  = n ‒ n = n ( ‒  ))

257
(deoarece valoarea așteptată a pătratelor valorilor ai se identifică cu varianța
valorilor populației „părinte” ( ))
2

(deoarece valoarea așteptată a pătratelor abaterilor mediilor de eșantionare


( ) de la media populației „părinte” () se identifică cu varianța distribuției
de eșantionare a mediilor , care, precum s-a arătat mai sus, este, în cazul
unei populații „părinte” infinite, de n ori mai mică decât varianța acesteia
din urmă ( 2))

Așadar, într-adevăr:

2
O relație alternativă de calcul pentru s , utilă în cazul în care sunt cunoscute
doar date centralizate, este:

258
Demonstrația acestei relații nu este dificilă:

259
Cea de-a doua parte a teoremei 5 nu este, de asemenea, dificil de
demonstrat. Pentru aceasta, se poate folosi egalitatea găsită mai sus (a se
vedea paginile 255-256):

Pornind de la această egalitate, rezultă că:

Împărțind toți termenii acestei relații cu  , se obține mai departe că:


2

Pe baza teoremei 2 de la pagina 254, se poate afirma că termenul din stânga


acestei egalități este echivalent cu o variabilă aleatoare care urmează o
distribuție χ 2 cu parametrul ν = n grade de libertate.
Pe baza teoremei 1 de la pagina 254, se poate afirma, de asemenea, că cel
de-al doilea termen din dreapta acestei egalități este echivalent cu o
variabilă aleatoare care urmează o distribuție χ 2 cu parametrul ν = 1 grad
de libertate.
Mai mult, întrucât, conform primei părți a teoremei 5, și s2 sunt variabile
independente, rezultă că cei doi termeni din dreapta acestei egalități, care
sunt funcții de și s2, sunt, de asemenea, variabile independente, ceea ce
înseamnă că într-adevăr, pe baza teoremei 4 de la pagina 254, variabila

260
aleatoare (n ‒ 1) s /
2
 2 urmează o distribuție χ 2 cu parametrul ν = n ‒ 1
grade de libertate.
Datorită celor 5 teoreme enunțate, distribuțiile χ
2
se pot folosi în foarte
multe aplicații.
În particular, teorema 5 poate fi utilă în fundamentarea de teste statistice
privitoare la varianța sau abaterea standard a unei variabile care urmează o
distribuție normală. Aplicații ale acestui fapt sunt, de exemplu, în legătură
cu controlul statistic al calității producției, pe baza observațiilor înregistrate
la nivel de eșantioane ale produselor realizate.
De pildă, să presupunem că un producător de sucuri declară că abaterea
standard () a cantității de suc îmbuteliat de acesta în sticle de 2 litri este
mai mică de 0,003 litri. Pentru a testa dacă afirmația producătorului poate
fi susținută statistic, se alege un eșantion de mărime n = 11 din aceste sticle
de suc. Presupunând că variabila cantității de suc îmbuteliat urmează o
distribuție normală și că la nivelul eșantionului ales se observă o abatere
standard (s) egală cu 0,0018 litri, ce se poate fi spune despre afirmația
producătorului?
Întrucât variabila cantității de suc îmbuteliat urmează o distribuție normală,
se poate afirma că variabila (n ‒ 1) s2 /  2 urmează o distribuție χ 2 cu
parametrul ν = n ‒ 1 = 11 ‒ 1 = 10 grade de libertate. Această distribuție
este reprezentată în figura 5.3.

Figura 5.3 Distribuția χ 2 cu 10 grade de libertate

261
Probabilitatea ca variabila X = (n ‒ 1) s /  să fie mai mică decât o
2 2

valoare particulară (x) este echivalentă cu valoarea pe care funcția de


distribuție probabilistică χ , cu parametrul ν = 10, o înregistrează pentru
2

această valoare particulară*:

Integrând prin părți, se obține în final că:

De exemplu, probabilitatea ca variabila X să fie mai mică decât 4 este egală


cu:

Funcția corespunzătoare de densitate probabilistică χ a fost prezentată în capitolul 4.


* 2

262
Aceasta înseamnă că în ipoteza că abaterea standard () a cantității de suc
îmbuteliat de producător în sticle de 2 litri este în realitate egală cu 0,003
litri, atunci:

Așadar, este destul de puțin probabil ca variabila X, în această ipoteză, să


înregistreze o valoare mai mică decât 4.
Pentru o valoare a lui s egală cu 0,0018 litri se obține însă că:

Acest rezultat arată că există temei statistic să respingem ipoteza că


abaterea standard () a cantității de suc îmbuteliat de producător în sticle
de 2 litri este în realitate egală cu 0,003 litri și să acceptăm ipoteza că
abaterea standard () a cantității de suc îmbuteliat de producător este în
realitate mai mică decât 0,003 litri, i.e. să credem că afirmația
producătorului este adevărată.

Distribuțiile t ale lui „Student”


În cazul în care în efortul de inferențiere statistică nu se cunoaște varianța
populației „părinte”, se dovedește foarte utilă familia de distribuții t ale lui
„Student”.
„Student” este pseudonimul folosit de către statisticianul William Sealy
Gosset pentru a publica, în anul 1908, lucrarea sa de pionierat în legătură cu
aceste importante distribuții statistice*.
Litera „t” este cea folosită (inclusiv de către Gosset) pentru identificarea
valorilor unei variabile care urmează o astfel de distribuție, a cărei funcție
generală de densitate probabilistică este dată de:

*
Cf. Donald L. HARNETT, Introduction to Statistical Methods, 3rd edition, Addison-Wesley Longman
Publishing Company, 1982, pp. 283-284.

263
unde:
‒∞ < t < +∞;
ν reprezintă numărul de grade de libertate.
După cum se poate observa, o astfel de distribuție este definită tot de un
parametru notat cu ν. Folosirea aceleiași notații (ν) pentru parametrul
distribuțiilor t ca și în cazul distribuțiilor χ este justificată de faptul că acest
2

parametru reprezintă în ambele cazuri ceea ce se numește numărul de


grade de libertate al distribuțiilor pe care le caracterizează.
Utilitatea distribuțiilor t pentru efortul de inferențiere statistică în cazul în
care nu se cunoaște varianța populației „părinte”, decurge din următoarele
două teoreme:
1) Dacă Y și Z sunt două variabile aleatoare independente, Y fiind o
variabilă care urmează o distribuție χ 2 cu ν grade de libertate, iar Z fiind o
variabilă care urmează distribuția normală standard, atunci variabila T,

urmează o distribuție t cu ν grade de libertate.


Demonstrația acestei teoreme pornește de la proprietatea conform căreia
funcția de densitate probabilistică bivariată pentru două variabile
independente este egală cu produsul funcțiilor de densitate probabilistică
univariată ale celor două variabile.
Considerând această proprietate pentru variabilele Y și Z, atunci când y > 0
și ‒∞ < z < +∞, se obține că:

Pentru celelalte valori ale lui y și z, f (y, z) = 0.


Mai departe se poate obține f (t) din f (y, z) folosind metoda schimbării de
variabilă (a se vedea capitolul 2, paginile 88-91). Pentru aceasta, îl aflăm

264
mai întâi pe z în funcție de y și t și determinăm derivata parțială a lui z
astfel exprimat, în funcție de t:

Se obțíne astfel că funcția de densitate probabilistică bivariată pentru


variabilele Y și T, atunci când y > 0 și ‒∞ < t < +∞, este:

Pornind de la această funcție, conform celor arătate în capitolul 2, se poate


obține acum h (t), ca și funcție de densitate probabilistică marginală pentru
variabila T, pentru y > 0 și ‒∞ < t < +∞:

265
Pentru ultima integrală obținută se poate face, mai departe, schimbarea de
variabilă:

Rezultă astfel că:

Înlocuind acest rezultat în relația lui h (t) se obține în final că:

unde:
‒∞ < t < +∞.

266
Se verifică, prin urmare, că h (t) este chiar funcția de densitate probabilistică
„Student” cu ν grade de libertate.
2
2) Dacă și s sunt media și varianța unui eșantion de mărime n, selectat
aleator dintr-o populație „părinte” de valori care urmează o distribuție
normală cu media  și varianța  , atunci variabila T,
2

urmează o distribuție t cu ν ‒ 1 grade de libertate.


Demonstrația acestei teoreme are la bază următoarele:
a) conform celei de-a 5-a teoreme enunțate mai sus în legătură cu
distribuțiile χ , variabila aleatoare Y,
2

urmează o distribuție χ cu parametrul ν = n ‒ 1 grade de libertate;


2

b) conform celor arătate în capitolul 4, variabila aleatoare Z,

urmează distribuția normală standard;


c) conform celei de-a 5-a teoreme enunțate mai sus în legătură cu
distribuțiile χ 2, variabilele aleatoare și s2 sunt variabile independente.
Acest fapt determină și independența dintre variabilele aleatoare Y și Z de la
punctele a) și b)*. Prin urmare, se poate aplica prima teoremă în legătură cu
distribuțiile t, pentru cazul acestor variabile. Se obține astfel că, într-adevăr,
variabila T,

*
A se vedea capitolul 2.

267
urmează o distribuție t cu parametrul ν = n ‒ 1 grade de libertate.
Pentru ilustrarea utilității familiei de distribuții t în efortul de inferențiere
statistică în legătură cu media unei populații „părinte” de valori care
urmează o distribuție normală, în cazul în care nu se cunoaște varianța
populației „părinte”, să presupunem, de exemplu, că pe parcursul celor 13
măsurători din cadrul unui test privitor la consumul de carburant al unui
anumit model de autoturism, s-a constatat un consum mediu de 5,5 litri la
100 de km parcurși, cu o abatere standard de 0,4 litri la 100 de km
parcurși. Presupunând, de asemenea, că variabila consumului de carburant
la 100 de km parcurși urmează o distribuție normală, ce se poate spune, în
aceste condiții, despre afirmația producătorului acestui model de autoturism,
conform căreia consumul mediu de carburant pentru acesta este de 5 litri la
100 de km?
Întrucât nu se cunoaște varianța variabilei consumului de carburant al
modelului considerat de autoturism la nivelul întregii populații „părinte” de
astfel de autoturisme fabricate de către producătorul în cauză, este necesară,
în acest caz, utilizarea unei distribuții probabilistice t.
Fiind vorba despre n = 13 măsurători realizate în cadrul testului desfășurat,
înseamnă că trebuie să luăm în considerare o distribuție t caracterizată de
parametrul ν = n ‒ 1 = 13 ‒ 1 = 12 grade de libertate. Această distribuție
este reprezentată în figura 5.4.

268
Figura 5.4 Distribuția t caracterizată de ν = 12 grade de libertate

Pentru a face o apreciere în legătură cu afirmația producătorului


autoturismului, trebuie să determinăm valoarea t a variabilei T pentru n =
13,  = 5, = 5,5 și s = 0,4:

Întrucât, așa cum se poate ușor observa în figura 5.4, probabilitatea de a


obține o valoare t mai mare de 4 este practic nulă*, se poate concluziona că
afirmația producătorului nu este sprijinită de rezultatele măsurătorilor
efectuate în cadrul testului.
Distribuțiile t se folosesc la inferențierea statistică în legătură cu media unei
populații „părinte” de valori care urmează o distribuție normală, în cazul în
care varianța acestor valori nu este cunoscută (dacă aceasta este cunoscută
se vor folosi în acest scop distribuțiile normale).

*
Calculând această probabilitate cu ajutorul motorului de calcul „Wolfram Alpha”
(http://www.wolframalpha.com/input/?i=P%28X%3E4%29+student+distribution+12+degrees+of+freed
om), se obține o valoare de aproximativ 0,00088.

269
Distribuțiile t pot fi folosite și la inferențierea statistică în legătură cu
diferența dintre mediile a două populații „părinte” de valori care urmează
distribuții normale, în cazul în care varianțele acestora sunt necunoscute
(dacă acestea sunt cunoscute se vor folosi în acest scop distribuțiile
normale).

Proprietăți importante ale distribuțiilor t


Distribuția t reprezentată în figura 5.4 se arată ca fiind una care seamănă
mult cu distribuția normală standard. Acest lucru nu este întâmplător; el se
explică ușor dacă se are în vedere faptul că variabila variabila T,

este construită și pe baza unei variabile (Z) care urmează distribuția


normală standard.
Întrucât variabila Z pe baza căreia se construiește o variabilă T are valoarea
așteptată egală cu 0 (valoarea așteptată a distribuției normale standard este
egală cu 0) și valoarea așteptată a unei distribuții t este egală întotdeauna cu
0.
Cât de mult seamănă o distribuție t cu distribuția normală standard depinde
însă de numărul de grade de libertate care o caracterizează pe cea dintâi. Cu
cât numărul de grade de libertate este mai mare, cu atât distribuția t se
apropie mai mult de distribuția normală standard.
În figura 5.5 sunt reprezentate distribuțiile t caracterizate de 5, respectiv,
12 grade de libertate. După cum se poate observa, distribuția t caracterizată
de 5 grade de libertate este mai întinsă decât distribuția t caracterizată de
12 grade de libertate. Se întâmplă așa, deoarece varianța unei distribuții t
depinde de numărul ei de grade de libertate. Astfel, dacă o variabilă T
urmează o distribuție t, caracterizată de ν grade de libertate, atunci varianța
acesteia este:

Aceasta înseamnă că distribuția t caracterizată de 5 grade de libertate are o


varianță egală cu 5 / (5 ‒ 2) ≈ 1,67 , în timp ce distribuția t caracterizată
de 12 grade de libertate are o varianță egală cu doar 12 / (12 ‒ 2) ≈ 1,2 .

270
Conform relației de mai sus, atunci când numărul de grade de libertate tinde
spre infinit, varianța distribuțiilor t tinde spre 1, adică spre varianța
distribuției normale standard.

Figura 5.5 Distribuțiile t caracterizate de ν = 5 și, respectiv, 12 grade


de libertate

În practică se consideră că distribuțiile t cu ν ≥ 30 aproximează suficient de


bine distribuția normală standard. Acesta este motivul pentru care în
inferențierea statistică pe baza unui eșantion de mărime n > 30 se poate
folosi, pentru estimarea statisticilor de interes, distribuția normală standard.

Distribuțiile F
O altă familie importantă de distribuții pentru inferențierea statistică în
legătură cu selecția realizată la nivelul unor populații statistice de valori care
urmează distribuții normale este cea a distribuțiilor F, denumite așa ca
urmare a faptului că au fost studiate prima dată, în anul 1924, de către
statisticianul și biologul Ronald Aylmer Fisher*.

*
Cf. Donald L. HARNETT, Introduction to Statistical Methods, 3rd edition, Addison-Wesley Longman
Publishing Company, 1982, p. 294.

271
Funcția generală de densitate probabilistică a familiei de distribuții F este
dată de:

unde:
ν1 și ν2 reprezintă parametrii gradelor de libertate care descriu o distribuție
F;
β (ν1 / 2, ν2 / 2) este funcția beta* cu parametrii ν1 / 2 și ν2 / 2.
Importanța distribuțiilor F decurge din faptul că ele se folosesc în analiza de
varianță, cu ajutorul lor putându-se estima raportul dintre varianțele
necunoscute a două populații „părinte”.
Estimarea acestui raport se poate face pe baza varianțelor determinate la
nivelul a două eșantioane selectate aleator, câte unul pentru fiecare dintre
cele două populații „părinte”.
În timp ce, așa cum am arătat, distribuțiile normale pot fi folosite la
inferențierea statistică în legătură cu diferența dintre mediile a două
populații „părinte” de valori care urmează distribuții normale, ale căror
varianțe sunt cunoscute, iar distribuțiile t pot fi folosite la inferențierea
statistică în legătură cu diferența dintre mediile a două populații „părinte”

*
A se vedea capitolul 2.

272
de valori care urmează distribuții normale, ale căror varianțe sunt
necunoscute, distribuțiile F pot fi folosite la inferențierea statistică în
legătură cu raportul dintre varianțele a două astfel de populații „părinte”.
Utilitatea distribuțiilor F pentru efortul de inferențiere statistică în legătură
cu raportul dintre varianțele a două populații „părinte” de valori care
urmează distribuții normale decurge din următoarele două teoreme:
1) Dacă U și V sunt două variabile aleatoare independente care urmează
distribuții χ cu ν1 și, respectiv, ν2 grade de libertate, atunci variabila F,
2

urmează o distribuție F cu ν1 și ν2 grade de libertate.


Ca și în cazul primei teoreme prezentate în legătură cu distribuțiile t,
demonstrația acestei teoreme pornește de la proprietatea conform căreia
funcția de densitate probabilistică bivariată pentru două variabile
independente este egală cu produsul funcțiilor de densitate probabilistică
univariată ale celor două variabile.
Considerând această proprietate pentru variabilele U și V, atunci când u >
0 și v > 0, se obține că:

Pentru celelalte valori ale lui u și v, f (u, v) = 0.


Mai departe se poate folosi metoda schimbării de variabilă (a se vedea
capitolul 2, paginile 88-91). Pentru aceasta, îl aflăm mai întâi pe u în funcție

273
de F și v și determinăm derivata parțială a lui u astfel exprimat, în funcție
de F:

Se obțíne astfel că funcția de densitate probabilistică bivariată pentru


variabilele F și V, atunci când F > 0 și v > 0, este:

Pornind de la această funcție, conform celor arătate în capitolul 2, se poate


obține acum h (F), ca și funcție de densitate probabilistică marginală pentru
variabila F, pentru F > 0 și v > 0:

274
Pentru ultima integrală obținută se poate face, mai departe, schimbarea de
variabilă:

Rezultă astfel că:

275
Înlocuind acest rezultat în relația lui h (F) se obține în final că pentru F >
0:

Pentru celelalte valori ale lui F, h (F) = 0.

Se verifică, prin urmare, că funcția h (F) este chiar funcția de densitate


probabilistică F cu ν1 și ν2 grade de libertate.

2) Dacă s12 și s22 sunt varianțele determinate la nivelul a două eșantioane


independente de mărime n1 și, respectiv, n2, selectate aleator din două
populații „părinte” de valori care urmează distribuții normale cu varianțele
12 și, respectiv, 22, atunci variabila F,

urmează o distribuție F cu ν1 = n1 ‒ 1 și ν2 = n2 ‒ 1 grade de libertate.


Demonstrația acestei teoreme are la bază următoarele:
a) conform celei de-a 5-a teoreme enunțate mai sus în legătură cu
distribuțiile χ 2, variabilele aleatoare U și V,

276
urmează distribuții χ 2 cu parametrii ν1 = n1 ‒ 1 și, respectiv, ν2 = n2 ‒ 1
grade de libertate;
b) faptul că două eșantioane selectate aleator, de mărime n1 și, respectiv,
n2, sunt independente, înseamnă că toate cele n1 + n2 variabile care le
alcătuiesc pe acestea sunt, de asemenea, independente, ceea ce determină ca
și variabilele aleatoare U și V de la punctul a) să fie independente. Acest
fapt dă posibilitatea aplicării pentru aceste variabile aleatoare a teoremei
precedente. Prin urmare, se poate afirma că variabila F,

urmează o distribuție F cu ν1 = n1 ‒ 1 și ν2 = n2 ‒ 1 grade de libertate.


O proprietate importantă a distribuțiilor F constă în faptul că dacă o
variabilă X urmează o distribuție F cu ν1 și ν2 grade de libertate, atunci
variabila Y = 1 / X urmează o distribuție F cu ν2 și ν1 grade de libertate.
O consecință utilă a acestei proprietăți a distribuțiilor F este cea potrivit
căreia pentru o valoare 0 < α < 1, astfel încât:

277
este valabilă relația:

unde:
este procentila cu rangul = (1 – α) · 100 a distribuției F cu ν1
și ν2 grade de libertate; prin aceasta se înțelege valoarea pentru care există o
probabilitate egală cu 1 – α ca o variabilă care urmează distribuția F cu ν1
și ν2 să ia valori pe intervalul
De exemplu, pentru α = 0,10, ν1 = 23 și ν2 = 7 se obține că:

Într-adevăr, folosind motorul de calcul online „Wolfram Alpha”, se obține


că*:

Pe de altă parte, folosind același motor de calcul, se obține că **:

Pentru ilustrarea utilității familiei de distribuții F în efortul de inferențiere


statistică în legătură cu raportul dintre varianțele a două populații „părinte”
de valori care urmează distribuții normale, să presupunem, de exemplu, că
la nivelul a două eșantioane formate din câte 25 de locuitori din 2 țări
diferite, s-au obținute următoarele date privitoare la variabila „venit” din
tabelul 5.11:

*
A se vedea:
http://www.wolframalpha.com/input/?i=F+distribution%5B23%2C7%5D+alpha+%3D+0.90
**
A se vedea:
http://www.wolframalpha.com/input/?i=F+distribution%5B7%2C23%5D+alpha+%3D+0.10

278
Tabelul 5.11
Țara A Țara B

Presupunând, de asemenea, că variabila „venit” urmează în fiecare din cele


două țări o distribuție normală, putem să estimăm, cu o încredere statistică
de, să zicem 95%, intervalul în care este cuprins raportul dintre varianțele
veniturilor pe care le obțin locuitorii din cele două țări.
Întrucât cele două eșantioane sunt formate fiecare din câte 25 de locuitori,
înseamnă că raportul dintre varianțele veniturilor pe care le obțin locuitorii
din cele două țări este estimat în acest caz pe baza unei distribuții F cu ν1 =
n1 ‒ 1 = 25 ‒ 1 = 24 = ν2 grade de libertate. Această distribuție este
reprezentată în figura 5.6.

Figura 5.6 Distribuția F caracterizată de ν1 = ν2 = 24 grade de


libertate

279
Conform rezultatelor care se pot obține și online, cu ajutorul motorului de
calcul „Wolfram Alpha”, 95% din valorile acestei distribuții aparțin
**
intervalului ≈ (0,44*; 2,27 ). Acest fapt este reprezentat în figura 5.7,
unde s-a notat cu α diferența dintre 100% și gradul de încredere cerut
(95%), i.e. α = 100% ‒ 95% = 1 ‒ 0,95 = 0,05.
Prin urmare, se poate scrie că:

*
A se vedea:
http://www.wolframalpha.com/input/?i=F+distribution%5B24%2C24%5D+alpha+%3D+0.975
**
A se vedea:
http://www.wolframalpha.com/input/?i=F+distribution%5B24%2C24%5D+alpha+%3D+0.025

280
Pe baza datelor din tabelul 5.11 se obține mai departe că:

Rezultă astfel că:

281
Figura 5.7

Așadar, se poate estima, cu o încredere statistică de 95%, că raportul


dintre varianțele veniturilor pe care le obțin locuitorii din cele două țări (1
2

/ 22) este cuprins în intervalul:

Conform acestui rezultat, se poate afirma, totodată, cu aceeași încredere


statistică de 95%, că raportul dintre varianțele veniturilor pe care le obțin
locuitorii din cele două țări este mai mic decât 1, ceea ce înseamnă că
varianța veniturilor obținute de locuitorii din prima țară este semnificativ
mai mică decât în cazul celei de-a doua țări, fapt echivalent cu existența
unor inegalități mai mari între veniturile obținute de locuitorii din cea de-a
doua țară.
Generalizând, se poate afirma că raportul dintre varianțele a două populații
„părinte” de valori care urmează distribuții normale este cuprins, cu o
încredere statistică de 1 – α, 0 < α < 1, în intervalul:

282
unde:
s12 și s22 sunt varianțele determinate la nivelul a două eșantioane
independente de mărime n1 = ν1 + 1 și, respectiv, n2 = ν2 + 1, selectate
aleator din cele două populații „părinte”;
este procentila cu rangul = (1 – α / 2) · 100 a distribuției F
cu ν1 și ν2 grade de libertate;
este procentila cu rangul = (1 – α / 2) · 100 a distribuției F
cu ν2 și ν1 grade de libertate;
este procentila cu rangul = (α / 2) · 100 a distribuției F
cu ν2 și ν1 grade de libertate;
este procentila cu rangul = (α / 2) · 100 a distribuției F
cu ν1 și ν2 grade de libertate.

283
284
BIBLIOGRAFIE
SELECTIVĂ

285
286
Tudorel ANDREI, Stelian STANCU, Statistica - Teorie şi aplicaţii,
Editura ALL, Bucureşti, 1995.
Constantin ANGHELACHE, Statistică teoretică şi economică – teorie şi
aplicaţii, Editura Economică, Bucureşti, 2004.
Mariana-Elena BALU, Bazele statisticii, Editura Fundaţiei „România de
Mâine”, Bucureşti, 2007.
Tudor BARON, Constantin ANGHELACHE, Emilia ŢIŢAN, Statistică,
Editura Economică, Bucureşti, 1996.
Maria BĂDIŢĂ, Silvia Elena CRISTACHE, Statistică – aplicaţii practice,
Editura Mondan, Bucureşti, 1998.
Peter C. BELL, Peter E. F. NEWSON, Statistics for Business with
Spreadsheets: Text and Cases, 2nd edition, Scientific Press, South San
Francisco, California, 1992.
Deborah J. BENNETT. Randomness. Second printing. Harvard University
Press, Cambridge, Massachusetts, London, England, 1998.
Elena BIJI, Tudor BARON, Statistică teoretică şi economică, Editura
didactică şi pedagogică, Bucureşti, 1995.
Fischer BLACK & Myron SCHOLES, The Pricing of Options and
Corporate Liabilities, Journal of Political Economy, Vol. 81, No. 3 (Mai -
Iunie, 1973), University of Chicago Press, pp. 637-654.
Ken BLACK, Business statistics. An introductory course, West Publishing
Company, 1999.
Harvey J. BRIGHTMAN, Howard SCHNEIDER, Statistics for Business
Problem Solving, South-Western Publishing Company, 1992.
Remus BUTĂNESCU, Statistică în afaceri (manual pentru uzul
studenţilor), Editura „Mira Design” Sibiu, 2000.
Remus BUTĂNESCU-VOLANIN, Statistică descriptivă. Ediția a 2-a.
Editura Universității „Lucian Blaga” Sibiu, 2014.
Thomas DIETZ & Linda KALOF. Introduction to Social Statistics: The
Logic of Statistical Reasoning. Wiley-Blackwell, 2009.
Iosif Constantin DRĂGAN, Mihai C. DEMETRESCU, Practica
prospectării pieţii, Editura Europa Nova, Bucureşti, 1996.
Liliana DUGULEANĂ, Bazele statisticii economice, Editura C.H. Beck,
Bucureşti, 2012.

287
John E. FREUND, Ronald E. WALPOLE, Mathematical Statistics, 4th
edition, Prentice-Hall Inc., 1987.
Morris HAMBURG, Basic Statistics: A Modern Approach, 3rd edition,
Harcourt Brace Jovanovich, 1985.
Donald L. HARNETT, Introduction to Statistical Methods, 3rd edition,
Addison-Wesley Longman Publishing Company, 1982.
Dumitru IACOB, Statistica, Editura Universităţii „Ştefan cel Mare”,
Suceava, 2000.
Alexandru ISAIC-MANIU, Constantin MITRUŢ, Vergil VOINEAGU,
Statistica pentru managementul afacerilor, ediţia a II-a, Editura
Economică, Bucureşti, 1999.
Alexandru ISAIC-MANIU Constantin MITRUŢ, Vergil VOINEAGU,
Statistică, Editura Universitară, Bucureşti, 2004.
Elisabeta JABA, Ana GRAMA, Analiza statistica cu SPSS sub Windows,
Editura Polirom, Iaşi, 2004.
Elisabeta JABA, Statistica, ediţia a II-a, Editura Economică, Bucureşti,
2000.
Gerald KELLER, Brian WARRACK, Henry BARTEL, Statistics for
management and economics, 3rd edition, Duxbury Press, 1994.
David M. LANE (coord.). Introduction to Statistics.
http://onlinestatbook.com/Online_Statistics_Education.pdf
Leonid E. MAISTROV. Probability theory: A historical sketch. Transl.
Samuel KOTZ. New York: Academic Press, 1974.
Ludwig von MISES, The Ultimate Foundation of Economic Science, Van
Nostrand Edition, 1962, http://www.mises.org
Neil J. SALKIND, Statistics for People who (think They) Hate Statistics,
2nd edition, Sage Publications, Inc., 2003,
http://books.google.com/books?id=naHRZCYkJ3sC
Richard L. SCHEAFFER & Linda J. YOUNG. Introduction to Probability
and Its Applications. Third Edition. Brooks/Cole, Cengage Learning,
Boston, USA, 2009.
Doina Maria SIMION, Statistică descriptivă, Editura Universităţii „Lucian
Blaga” din Sibiu, 2002.
Murray R. SPIEGEL, David P. LINDSTROM, Statistics, McGraw-Hill
Professional, 2000, http://books.google.com/books?id=KdDzrQGAlnkC

288
Vladimir SPOKOINY, Thorsten DICKHAUS, Basics of Modern
Mathematical Statistics, Springer-Verlag, Berlin & Heidelberg, 2015.
Stephen M. STIGLER, Who Discovered Bayes's Theorem, The American
Statistician, Vol. 37, No. 4, Part 1 (Nov. 1983), pp. 290-296.
Vladimir TREBICI (coord.), Mică enciclopedie statistică, Editura
Stiinţifică şi Enciclopedică, Bucureşti, 1985.
Emilia ŢIŢAN, Simona GHIŢĂ, Angelica BĂCESCU-CĂRBUNARU,
Bazele statisticii, Editura Meteora Press, Bucureşti, 2002.
*** http://www.wolframalpha.com

289

S-ar putea să vă placă și