Sunteți pe pagina 1din 152

CONSTANTIN POPP

NICOLETA GILLICH VILHELM ION PRAISACH

ELEMENTE
DE
TEORIA PROBABILITĂŢILOR
şi
STATISTICĂ MATEMATICĂ

f(x)

- 0  x

EDITURA „EFTIMIE MURGU”

REŞIŢA, 1998
2 Cuprins

CUPRINS
PREFAŢĂ ..................................................................................................................... 6
ELEMENTE DE TEORIA PROBABILITĂŢILOR
Capitolul 1 Noţiuni introductive ............................................................................ 8
1.1. Câmp de evenimente....................................................................................... 8
1.2. Noţiunea de probabilitate.............................................................................. 10
Capitolul 2 Câmp de probabilitate....................................................................... 13
2.1. Definiţie şi proprietăţi................................................................................... 13
2.2. Probabilităţi condiţionate. Evenimente independente. ................................. 13
2.3. Probabilitatea reuniunii evenimentelor compatibile..................................... 15
2.4. Probabilitatea intersecţiei evenimentelor dependente .................................. 15
2.5. Formula probabilităţii totale şi formula lui Bayes........................................ 16
2.6. Scheme probabilistice clasice....................................................................... 18
2.6.1. Schema bilei nerevenite......................................................................... 18
2.6.2. Schema bilei revenite............................................................................. 18
2.6.3. Schema lui Poisson ................................................................................ 20
2.7. Probleme rezolvate ....................................................................................... 20
Capitolul 3 Variabile aleatoare ............................................................................ 27
3.1. Variabile aleatoare discrete. Definiţie şi exemple. ....................................... 27
3.2. Operaţii cu variabile aleatoare discrete ........................................................ 28
3.3. Variabile aleatoare continue ......................................................................... 30
3.4. Funcţia de repartiţie ...................................................................................... 31
3.4.1.Funcţia de repartiţie pentru variabila aleatoare discretă......................... 32
3.4.2.Funcţia de repartiţie pentru variabila continuă....................................... 34
3.5. Funcţia de repartiţie bidimensională ............................................................ 36
3.6. Grafice pentru variabile aleatoare ................................................................ 37
3.6.1.Pentru v.a. discretă.................................................................................. 37
3.6.2.Pentru v.a. continuă, ............................................................................... 38
3.7. Probleme rezolvate ....................................................................................... 39
Capitolul 4 Caracteristici numerice ale variabilelor aleatoare ......................... 43
4.1. Caracteristici de grupare............................................................................... 43
4.1.1.Valoarea medie ....................................................................................... 43
4.1.2. Valoarea mediană .................................................................................. 44
4.1.3.Cuantile. ................................................................................................. 45
4.1.4.Valoarea modală..................................................................................... 46
4.1.5.Momente şi medii de ordin superior. ..................................................... 47
4.2.Caracteristici de împrăştiere.......................................................................... 48
4.2.1.Variabila abatere. Abaterea absolută medie........................................... 49
4.2.2.Dispersia. Abaterea medie pătratică....................................................... 50
4.2.3.Momente centrate (medii centrate). Covarianţa..................................... 51
4.2.4.Normata unei variabile aleatoare............................................................ 52
4.3.Caracteristici care dau informaţii privind forma distribuţiei......................... 53
4.4.Corelaţie şi regresie....................................................................................... 54
4.4.1.Proprietăţile coeficientului de corelaţie : ............................................... 55
4.4.2.Funcţia de regresie ................................................................................. 56
4.5. Probleme rezolvate ....................................................................................... 58
Capitolul 5 Funcţie caracteristică şi funcţie generatoare .................................. 63
5.1. Definiţia funcţiei caracteristice. Proprietăţi. ................................................ 63
5.2. Funcţie generatoare ...................................................................................... 64
5.3. Teorema de inversiune şi teorema de unicitate ............................................ 65
5.4. Probleme rezolvate ....................................................................................... 66
Capitolul 6 Repartiţii probabilistice clasice discrete ......................................... 70
6.1. Repartiţia binomială sau repartiţia lui Bernoulli.......................................... 70
6.2. Repartiţia multinomială................................................................................ 71
6.3. Repartiţia binomială cu exponent negativ.................................................... 72
6.4. Repartiţia hipergeometrică ........................................................................... 73
6.5. Repartiţia Poisson......................................................................................... 74
6.6. Repartiţia geometrică ................................................................................... 76
Capitolul 7 Repartiţii probabilistice clasice continue ........................................ 77
7.1. Repartiţia uniformă ...................................................................................... 77
7.2. Repartiţia normală ........................................................................................ 79
7.3. Repartiţia normală normată .......................................................................... 82
7.4. Repartiţia lognormală................................................................................... 84
7.5. Repartiţia gamma. ........................................................................................ 85
7.6. Repartiţia beta .............................................................................................. 88
7.6.1.Cazuri particulare .................................................................................. 90
4 Cuprins

7.7. Repartiţia exponenţială negativă .................................................................. 91


7.8. Repartiţia Weibull......................................................................................... 92
7.9. Repartiţia Erlang........................................................................................... 94
2
7.10. Repartiţia  (hi – pătrat) ......................................................................... 94
7.10.1.Cazuri particulare de repartiţii  2 ....................................................... 97
7.11. Repartiţia „t” (Student)............................................................................... 97
7.12. Repartiţia Snedecor................................................................................... 100
7.13. Repartiţia Fischer...................................................................................... 101
7.14. Repartiţia Cauchy ..................................................................................... 102
7.15. Probleme rezolvate .................................................................................. 102
Capitolul 8 Teoreme şi legi în teoria probabilităţilor....................................... 105
8.1. Inegalitatea lui Cebîşev .............................................................................. 105
8.2. Convergenţa şirurilor de variabile aleatoare............................................... 106
8.2.1. Convergenţa în probabilitate ............................................................... 106
8.2.2. Convergenţa tare.................................................................................. 106
8.2.3. Convergenţa în medie de ordinul r ...................................................... 107
8.2.4. Convergenţa în repartiţie ..................................................................... 107
8.3. Legea numerelor mari. Legi limită ............................................................. 108
8.3.1. Problema limită centrală...................................................................... 113
8.3.2. Teorema limită centrală a lui Leapunov .............................................. 115
8.4. Probleme rezolvate .................................................................................... 116
Capitolul 9 Procese stochastic. Elemente de teoria fiabilităţii. ....................... 120
9.1. Noţiunea de proces stochastic..................................................................... 120
9.2. Elemente de teoria fiabilităţii ..................................................................... 122
9.2.1. Timpul de funcţionare până la prima defecţiune. ................................ 123
9.2.2. Funcţia risc de defectare. ..................................................................... 124
9.2.3. Siguranţa sistemelor cu elemente legate în serie ................................. 125
9.2.4. Siguranţa sistemelor cu elemente legate în paralel.............................. 126
STATISTICĂ MATEMATICĂ
Capitolul 10 Teoria selecţiei. Teoria estimaţiei. Ajustarea legilor de distribuţie.
...................................................................................................................................... 127
10.1. Teoria selecţiei.......................................................................................... 127
10.1.1. Noţiuni introductive........................................................................... 127
10.1.2. Funcţia de repartiţie de selecţie......................................................... 129
10.2 Teoria estimaţiei........................................................................................ 130
10.2.1. Estimatori punctuali. ......................................................................... 130
10.2.2. Estimarea prin intervale de încredere................................................ 137
10.3 Ajustarea legilor de distribuţie. Metode empirice..................................... 142
10.3.1. Forma histogramei............................................................................. 143
10.3.2. Verificarea unor proprietăţi matematice. .......................................... 143
10.3.3. Ajustarea grafică. .............................................................................. 143
10.3.4. Aplicaţii............................................................................................. 145
ANEXE ..................................................................................................................... 147
Anexa 1. Distribuţia normală. Valorile funcţiei  (x)...................................... 147
Anexa 2. Funcţia  a lui Euler............................................................................ 148
Anexa 3. Distribuţia student............................................................................... 149
Anexa 4. Lista programelor MathCad folosite pentru generarea valorilor .. 150
BIBLIOGRAFIE ...................................................................................................... 151
6 Eroare! Legătură incorectă.

PREFA[~

Evoluţia cercetării ştiinţifice prezintă tendinţe de integrare atestate de


apariţia unor discipline a căror vocaţie este identificarea notelor de unitate
şi sinteză. În acest context, teoria probabilităţilor şi statistica matematică
acţionează ca un liant între disciplinele fizice, tehnice şi socio-umane,
validând descrierea generală şi abstractă a fenomenelor, furnizând astfel
ştiinţelor instrumente de lucru şi cadre conceptuale.
Fundamente ale calculului probabilităţilor au fost statuate în secolul al
XVII- lea de savanţii B. Pascal şi P. Fermat care au formulat definiţia
clasică a probabilităţii, fiind şi astăzi singura folosită în practică pentru
determinarea numerică a probabilităţii producerii unui eveniment.
În anul 1933, A.N. Kolmogorov a realizat o axiomatizare a noţiunii de
probabilitate, calculul probabilităţilor devenind un capitol al teoriei măsurii
iar probabilitatea o măsură normată.
Obiectivul fundamental al teoriei probabilităţilor constă în determinarea
legăturii pe care această ştiinţă abstractă o are cu lumea reală. Această
problemă a fost în atenţia primilor probabilişti, dintre care J.Bernoulli a
formulat „legea numerelor mari” şi a definit „speranţa matematică
normală”.
Apariţia tratatului lui Laplace „Teoria analitică a probabilităţilor”
(1813) certifică faptul că la începutul secolului al XIX-lea această teorie era
complet consolidată şi avea în vedere multiple aplicaţii în ştiinţă şi tehnică,
în economie şi în alte domenii.
Eroare! Legătură incorectă. 7

În anii care au urmat au fost studiate aproape toate distribuţiile clasice


(Bernoulli, Poisson, Gauss, Laplace etc.), au fost rezolvate teoremele limită
centrale pentru diferite şiruri de variabile, s-au definit tipurile de
convergenţă aleatoare iar Markov a descoperit „lanţurile" care îi poartă
numele. În deceniile premergătoare axiomatizării teoriei probabilităţilor,
K.Pearson şi R.A.Fischer vor pune bazele statisticii matematice actuale.
Studiul teoriei probabilităţilor în epoca clasică s-a limitat pentru
câmpurile finite de probabilitate, epoca actuală extinzând această teorie şi
la nivelul câmpurilor infinite.
Prezenta lucrare, alcătuită din două părţi distincte – probabilităţi şi
statistică matematică – este structurată în zece capitole, fiecare capitol fiind
însoţit de exemple şi probleme rezolvate care facilitează asimilarea
noţiunilor tratate.
Conţinutul lucrării reflectă elemente ale programelor analitice aferente
cursurilor de „Probabilităţi şi statistică matematică” şi „Matematici pentru
economişti” predate de autori la facultăţile din cadrul Universităţii „Eftimie
Murgu” din Reşiţa, dar considerăm că poate fi utilă şi cadrelor didactice
sau cercetătorilor cu preocupări în acest domeniu.
Autorii îşi exprimă gratitudinea şi aduc mulţumiri domnilor referenţi
ştiinţifici : prof.dr.ing. Corneliu Velicescu de la Facultatea de Electrotehnică
a Universităţii Tehnice Timişoara, prof.dr.ing. Ştefan Gârlaşu şi conf.dr.
Liviu Spătaru de la Universitatea „Eftimie Murgu” din Reşiţa, care prin
observaţiile pertinente au contribuit cu certitudine la creşterea nivelului
calitativ al lucrării noastre.

Autorii
8 Eroare! Legătură incorectă.

ELEMENTE DE TEORIA PROBABILITĂŢILOR

Capitolul 1 Noţiuni introductive

1.1. Câmp de evenimente

Se numeşte experienţă orice realizare a unui complex de condiţii, σ, bine precizat.


Prin efectuarea unei experienţe se înţelege alegerea unui element dintr-o mulţime dată,
printr-un procedeu susceptibil de a fi repetat.
O anumită realizare efectuată sau viitoare, a unei experienţe, se numeşte probă. Deci,
proba nu se confundă cu experienţa însăşi ci cu unul din rezultatele sale previzibile.
Uneori, în loc de probe ale unei experienţe, vom spune cazuri posibile ale experienţei.
În legătură cu o experienţă aleatoare (întâmplătoare) ne putem pune o serie de
întrebări ale căror răspunsuri nu le putem cunoaşte decât după efectuarea experienţei.
Toate situaţiile legate de o experienţă aleatoare şi despre care putem afirma cu certitudine
că s-au produs sau nu după efectuarea experienţei, le vom numi evenimente.
Evenimentul care poate fi realizat de o probă şi numai de una se numeşte eveniment
elementar. Celelalte evenimente (care nu sunt elementare) le vom numi evenimente
compuse.
Experienţele se împart în două categorii : cu un număr finit de rezultate posibile (sau
probe) şi cu o infinitate de cazuri posibile. De exemplu, aruncarea zarului este o
experienţă cu un număr finit de cazuri posibile (6). Are şase evenimente elementare, dar
poate avea şi altele (de pildă sau faţa 6 sau faţa 3, sau una din feţele 2, 3, 5, etc.). Numărul
total de evenimente este C60 + C61 +K+ C66 = 2 6 = 64 .
O mulţime de evenimente care pot apărea într-o anumită experienţă, se numeşte
sistem de evenimente şi poate fi finit sau infinit, după cum conţine un număr finit sau
infinit de evenimente.
Evenimentul poate fi sigur (total) dacă se realizează cu certitudine la fiecare efectuare
a experienţei sau imposibil dacă nu se realizează la nici o efectuare a experienţei.
Evenimentele se notează de obicei cu litere mari ale alfabetului latin : A, B, C, … .
Evenimentul sigur se notează cu E, iar evenimentul imposibil cu Φ.
Fiecărui eveniment A îi corespunde evenimentul contrar (opus sau complementar)
notat A sau CA. Evident că E = Φ şi Φ = E . Dacă B = A atunci şi A = B .
Eroare! Legătură incorectă. 9

Implicaţia unui eveniment de către alt eveniment. Zicem că evenimentul A implică


evenimentul B (A⊂B) dacă B se realizează de fiecare dată când se realizează A. În caz
contrar se va scrie : A⊄B.

Proprietăţile implicaţiei
1. A⊂A (reflexivitate)
2. A⊂E, (∀)A (ultimul element)
3. Dacă A⊂B şi B⊂C, atunci A⊂C (tranzitivitate)
4. Φ⊂A, (∀)A (primul element)
5. Dacă A⊂B şi B⊂A atunci A=B, adică sunt echivalente (antisimetrie)

Reuniunea a două evenimente. Dacă A şi B sunt evenimente legate de aceeaşi


experienţă, atunci A∪B este evenimentul care constă în realizarea cel puţin a unuia din
cele două evenimente (se citeşte : A sau B).

Proprietăţile reuniunii
1. A∪B=B∪A (comutativitate)
2. (A∪B) ∪C=A∪(B∪C) (asociativitate)
3. A⊂A∪B, B⊂A∪B
4. A∪A=A (idempotenţa)
5. A∪E=E (proprietăţile ultimului element)
6. A∪Φ=A (proprietăţile primului element)

Intersecţia a două evenimente : A∩B este evenimentul care constă în realizarea


ambelor evenimente (se citeşte A şi B).
Evenimente compatibile. Două evenimente A şi B sunt compatibile dacă se pot realiza
simultan, adică dacă există probe comune care realizează atât pe A cât şi pe B (A∩B≠Φ).
În caz contrar evenimentele sunt incompatibile (A∩B=Φ, adică sunt disjuncte).

Proprietăţile intersecţiei
1. A∩B=B∩A (comutativitate)
2. (A∩B) ∩C=A∩(B∩C) (asociativitate)
3. A∩(B∪C)=(A∩B) ∪(A∩C) (distributivitate)
10 Eroare! Legătură incorectă.

Definiţia 1. Fie E o mulţime nevidă. (E≠Φ) şi K o familie nevidă de părţi ale lui E.
Cuplul (E,K) se numeşte câmp de evenimente (finit sau infinit) dacă K verifică axiomele
unui trib (algebră) respectiv a unui trib borelian (σ- algebră) :
a) E∈K, Φ∈ K

b) ( ∀) A ∈ K ⇒ A ∈ K
c) A, B∈ K ⇒A∪B∈ K, A∩B∈ K

d) A, B∈ K, A⊂B⇒B\A∈ K unde B \ A = B ∩ A (diferenţa)


∞ ∞
e) Dacă K este infinit şi Ai∈ K , i∈N⇒ U Ai ∈ K ,
1
IA
1
i ∈K

Definiţia 2. Sistemul de evenimente {Bi }, i = 1,n , Bi ∈ K , se numeşte sistem complet


n
de evenimente dacă : Bi ≠ 0, Bi I B j = Φ (i ≠ j), UB i = E.
1

Definiţia 3. Un eveniment A∈ K se numeşte eveniment compus dacă există două


evenimente B, C∈ K \{Φ} diferite de A astfel încât A=B∪C. Un eveniment care nu este
compus şi nu este imposibil, se numeşte eveniment elementar sau atom.

1.2. Noţiunea de probabilitate

Vom caracteriza printr-un număr raţional 0≤p≤1, gradul de realizare (şansa realizării)
al fiecărui eveniment A dintr-un câmp de evenimente K . Un astfel de număr notat P(A) se
va numi probabilitatea evenimentului A.

nA
1. Definiţia statistică : P(A) = lim fn ( A), unde fn ( A) = se numeşte frecvenţa
n →∞ n
relativă a evenimentului A într-o serie de n repetări a unei experienţe ; nA este numărul
apariţiei evenimentului A în cele n încercări.

m
2. Definiţia clasică : P(A) = ; m este numărul de cazuri favorabile producerii
n
evenimentului A iar n este numărul cazurilor posibile, în ipoteza că toate cazurile sunt
posibile.
Eroare! Legătură incorectă. 11

Această definiţie reduce noţiunea de probabilitate la noţiunea de egal probabilitate de


apariţie a evenimentelor elementare, care fiind admisă ca noţiune primară nu poate fi
definită riguros matematic. Se presupune că mulţimea evenimentelor ataşate unei
experienţe poate fi construită prin operaţia de reuniune a unor evenimente egal posibile.
Definiţia clasică este insuficientă deoarece se aplică numai pentru câmpuri finite de
evenimente, unde chiar şi pentru acestea nu întotdeauna se poate vorbi de cazuri egal
posibile (de exemplu zarul nu este perfect simetric).

3. Definiţia geometrică extinde noţiunea de probabilitate în cazul câmpurilor infinite.


Astfel, fie Ω o mulţime măsurabilă a unui spaţiu euclidian n-dimensional, a cărei măsură
Lebesgue n-dimensională este pozitivă şi finită. Notăm L∩Ω clasa de părţi măsurabile ale
lui Ω şi μ(A) măsura Lebesgue a mulţimii măsurabile A∈ L∩Ω. Se aruncă la întâmplare
un punct în mulţimea Ω şi se cere să se determine probabilitatea ca punctul respectiv să
cadă în mulţimea A. Se intuieşte că probabilitatea căutată este proporţională cu măsura
mulţimii μ(A) - măsura mulţimii A şi nu depinde de forma şi aşezarea lui A, adică prin
definiţie :
μ (A)
P(A) =
μ (Ω )

Această probabilitate verifică proprietăţile observate atât la frecvenţa relativă cât şi la


probabilitatea dată prin definiţia clasică. De multe ori se consideră în aplicaţii cazul când
Ω=[a,b] al dreptei reale, iar A este un subinterval închis [a’,b’]. Atunci :
b'-a'
P(A) =
b-a
4. Definiţia axiomatică. Kolmogorov în anul 1931 pune bazele axiomatice ale teoriei
probabilităţilor, în strânsă legătură cu teoria măsurii şi teoria funcţiilor de variabile
reale.

Numim probabilitate pe un câmp de evenimente (E,K ), o funcţie P:K →[0,1] cu


proprietăţile :
1. P(E)=1
⎛∞ ⎞ ∞
2. A n ∈ K , n ∈ N ; A n I A m = Φ, m ≠ n P⎜ U A n ⎟ = ∑ P(A n )
⎝ 1 ⎠ 1
12 Eroare! Legătură incorectă.

Din definiţie rezultă că o probabilitate nu este altceva decât o măsură pozitivă


normată (ia valori numai în [0,1]) definită pe un trib (respectiv trib borelian). Dacă E este
o mulţime finită, rolul lui K este jucat de P(E) - mulţimea părţilor lui E, pentru că de
obicei în tratarea ansamblistă atomii se reduc la elementele e∈E numite evenimente
elementare.

Dacă (E,K ) este un câmp finit de evenimente, ale cărui evenimente elementare sunt
{e1, e2, …, en}=E, din definiţia axiomatică rezultă :

n
P(ei ) ≥ 0, i = 1,n; ∑ P(e ) = P(E) = 1
1
i

Dacă P(e1)=P(e2)=…=P(en) spunem că evenimentele elementare ei sunt egal


1
probabile şi în acest caz deducem : P(ei ) = , i = 1,n
n

Dacă A∈ K oarecare, A = ei 1 U ei 2 UKU ei m , avem :

⎛m ⎞ m
m
P(A) = P⎜ U ei r ⎟ = ∑ P(ei r ) , deci P(A) = ,
⎝ r =1 ⎠ r = 1 n
adică raportul dintre numărul evenimentelor elementare favorabile evenimentului dat şi
numărul total de evenimente elementare ale câmpului.

Astfel definiţia clasică a probabilităţii este conţinută, ca un caz particular, în definiţia


axiomatică.
Eroare! Legătură incorectă. 13

Capitolul 2 Câmp de probabilitate

2.1. Definiţie şi proprietăţi


Fie (E, K ) un câmp finit sau infinit de evenimente şi P o probabilitate pe (E, K ).

Un triplet {E, K , P} se numeşte câmp de probabilitate.


Dacă (E, K ) este infinit, atunci {E, K , P} se numeşte câmp borelian de probabilitate.

Proprietăţi:
1. P(Φ)=0
2. P(A) = 1 - P(A ) , (∀ )A ∈ K
3. P(B\A)=P(B)-P(A), (∀)A,B∈K , A⊆B, iar în general :
P(B\A)=P(B)-P(A∩B)
4. P(A)≤P(B) dacă A⊆B ; A,B∈ K
5. 0≤P(A) ≤1, (∀)A∈ K
6. P(A∪B)=P(A)+P(B)- P(A∩B), (∀)A,B∈K (formula lui Poincaré)

⎛∞ ⎞ ∞
7. P⎜ U A n ⎟ ≤ ∑ P(A n ), (∀ ) { A n } n ∈N ⊂ K
⎝ 1 ⎠ 1

Pentru studiul câmpurilor infinite este util ca evenimentele câmpului să fie


reprezentate prin mulţimi de puncte din spaţiul Rn.

2.2. Probabilităţi condiţionate. Evenimente independente.


Fie o urnă care are n bile dintre care unele marcate cu litera A în număr de a, altele
notate cu B în număr de b şi în sfârşit unele notate cu A şi B în număr de c. Notăm cu A
(respectiv B) evenimentul de a extrage o bilă marcată cu A (respectiv B). Se cere
probabilitatea evenimentului B, în ipoteza că evenimentul A s-a produs. Vom avea :
c
c P(A I B)
PA ( B) = P( B / A ) = = n =
a+c a+c P(A )
n
14 Eroare! Legătură incorectă.

Prin faptul că evenimentul A s-a produs, se modifică complexul de condiţii în care


mai poate să apară evenimentul B şi prin urmare producerea lui A influenţează
b+c
producerea lui B a cărui probabilitate de apariţie la început a fost P( B) = .
n
Acest exemplu sugerează următoarea definiţie :

Fie {E, K , P} un câmp borelian de probabilitate şi A,B∈K cu P(A)≠0. Se numeşte


probabilitate a evenimentului B condiţionată de evenimentul A (sau probabilitatea lui B în
raport cu A) expresia :
P(AI B) ( 1.2.1)
PA ( B) = P( B / A ) =
P(A )

Remarcă : Faptul că tripletul {E, K , P} este un câmp borelian de probabilitate arată


că PA:K →[0,1] este o probabilitate.
În adevăr, deoarece A∩E=A rezultă :

P(AI E) P(A )
PA ( E) = = =1
P( A ) P(A )
Dacă Ai∈K,, AI∩Aj=Φ (i≠j) atunci : (A∩Ai)∩(A∩Aj)= Φ şi deci :

⎛ ⎛ ∞ ⎞⎞ ⎛∞ ⎞
⎛∞ ⎞
P ⎜

A I ⎜ U A
⎝ 1 ⎠⎠i ⎟ ⎟ P ⎜ U
⎝ 1
( A I A i ) ⎟
⎠ ∞
PA ⎜ U A i ⎟ =
⎝ 1 ⎠ P(A )
=
P( A )
= ∑P
1
A (A i )

Să considerăm în continuare experienţa aruncării unei monede de două ori. Notăm cu


A evenimentul apariţiei stemei la prima aruncare şi cu B la a doua aruncare. Avem
P(A)=1/2, P(B)=1/2.
Pentru evenimentul A∩B se prezintă un singur caz favorabil din cele patru posibile :
1 1 1
(1,1), (1,2), (2,1), (2,2). Deci : P(A I B) = = ⋅ = P(A ) ⋅ P( B)
4 2 2
Apariţia feţei cu stemă, la a doua aruncare este independentă de apariţia unei feţe sau
a celeilalte la prima aruncare. Rezultă astfel următoarea definiţie :

Două evenimente A,B∈K se numesc independente dacă :


P(A∩B)=P(A)⋅P(B) (2.2)

Din (2.1) rezultă o definiţie echivalentă a evenimentelor independente :


Eroare! Legătură incorectă. 15

PB(A)=P(A) dacă P(B)≠0 sau PA(B)=P(B) dacă P(A)≠0 (2.3)

De asemenea este evident că dacă P(A) ≠0, P(B) ≠0 atunci :


P(B) ⋅PB(A)= P(A) ⋅PA(B) (2.4)

Generalizând, două sisteme complete de evenimente {A1,A2,…,An} şi {B1,B2,…,Bn}


ale câmpului {E, K , P} sunt independente dacă :

P(A i I B j ) = P(A i ) ⋅ P( B j ); i = 1, m, j = 1, n (2.5)

2.3. Probabilitatea reuniunii evenimentelor compatibile

Se ştie că dacă A,B∈K sunt incompatibile (A∩B=Φ) atunci :


P(A∪B)=P(A)+P(B) (2.6)
Ne propunem să calculăm P(A∪B) în cazul când A∩B≠Φ :
A∪B=[A\(A∩B)]∪[A∩B]∪[B\(A∩B)],
în care evenimentele din parantezele mari sunt incompatibile două câte două.
P(A∪B)=P[A\(A∩B)]+P[A∩B]+P[B\(A∩B)]=P(A)-P(A∩B)+P(A∩B)+P(B)-P(A∩B).
Deci :
P(A∪B)=P(A)+P(B)-P(A∩B) (2.7)
Prin recurenţă, formula se poate extinde la n evenimente (formula lui Poincaré) :

⎛ n ⎞ n n n
P⎜ U A i ⎟ =
⎝ 1 ⎠
∑ P(A ) − ∑ P(A I A ) + ∑ P(A I A I A
1
i
i , j =1
i j
i , j, k = 1
i j k ) +K
(2.8)
i< j i < j< k

⎛ n ⎞
+ ( −1) n −1 P⎜ I A i ⎟
⎝ i =1 ⎠

2.4. Probabilitatea intersecţiei evenimentelor dependente

Dacă A1,…,An sunt independente, atunci :


⎛ n ⎞ (2.9)
P⎜ I A i ⎟ = P(A1 ) ⋅ P(A 2 )⋅K⋅P(A n )
⎝ i =1 ⎠

În general, când Ai sunt dependente se poate demonstra prin inducţie următoarea


formulă de înmulţire a probabilităţilor :
16 Eroare! Legătură incorectă.

⎛ n ⎞ ⎛ n −1
⎞ (2.10)
⎝ i =1 ⎠
( )
P⎜ I A i ⎟ = P(A1 ) ⋅ P(A 2 / A 1 ) ⋅ P A 3 A 1 I A 2 ⋅K⋅P⎜ A n

I
i =1
Ai ⎟

⎛ n-1 ⎞ ⎛ n ⎞
unde : A i ∈ K , i = 1, n şi P⎜ I A i ⎟ ≠ 0 . În practică, de obicei nu se calculează P⎜ I A i ⎟
⎝ 1 ⎠ ⎝ i =1 ⎠
ci o margine inferioară a sa, dată de inegalitatea lui Boole :

⎛ n ⎞ n (2.11)
P⎜ I A i ⎟ ≥ ∑ P(A i ) − ( n − 1) ,
⎝ i =1 ⎠ 1

care se poate demonstra prin inducţie, observând că :


P(A∩B)=P(A)+P(B)-P(A∪B)≥P(A)+P(B)-1, deoarece P(A∪B)≤1.

2.5. Formula probabilităţii totale şi formula lui Bayes


Fie {B1, B2, …, Bn} un sistem complet de evenimente ale câmpului de probabilitate
n
{E,K,P}. Avem deci : E = U Bi , Bi ∈ K , Bi I B j = Φ (i ≠ j) .
1

Dacă A este un eveniment oarecare, atunci :


⎛ n ⎞ n
A A I E A I ⎜ U Bi ⎟ U (AI Bi ) ,
= = =
⎝ 1 ⎠ 1

unde : (A∩Bi)∩(A∩Bj)=Φ, i≠j. Deci :

⎡n ⎤ n

(
P(A ) = P ⎢U AI Bi ⎥ = ) ∑ P( A I B ) . i
⎣1 ⎦ 1

Dar, P(A∩Bi)=P(Bi)⋅P(A/Bi)=P(A)⋅P(Bi/A), de unde :

n (2.12)
P(A ) = ∑ P( B ) ⋅ P(A / B ) ,
1
i i

numită formula probabilităţii totale. Această formulă reduce calculul lui P(A) la calculul
probabilităţilor cauzelor şi a probabilităţilor condiţionate de fiecare cauză. Deoarece într-o
experienţă apare cu siguranţă unul şi numai unul din evenimentele Bi, se mai spune că
sistemul complet de evenimente {B1, B2, …, Bn} este o „desfacere a evenimentului sigur
E”, iar evenimentele Bi se numesc „cauze” sau „ipoteze”.
Eroare! Legătură incorectă. 17

Egalitatea : A=(A∩B1)∪(A∩B2)∪…∪(A∩Bn), exprimă faptul că A se produce


împreună cu fiecare din cauzele Bi, deci :

P( Bi ) ⋅ P(A / Bi ) P( B ) ⋅ P(A / Bi )
P( Bi / A ) = = n i
P(A )
∑ P( B j ) ⋅P(A / B j )
1
(2.13)

numită formula lui Bayes (formula probabilităţii cauzelor sau formula ipotezelor).
Toate problemele în care intervin formulele prezentate pot fi modelate pe următorul
tip de aplicaţie :
Fie 5 urne din care două de compoziţie K1 având trei bile albe şi patru bile negre, o
urnă de compoziţie K2 cu două bile negre şi nici una albă precum şi două urne de
compoziţie K3 având zece bile albe şi două negre. Se cere :
a) Care este probabilitatea ca dintr-o urnă luată la întâmplare să extragem o bilă albă
?
b) Ştiind că bila extrasă e albă, care este probabilitatea ca ea să provină dintr-o urnă
de compoziţie K3 ?
Soluţie : Notăm cu A evenimentul extragerii unei bile albe şi cu Bi (i=1,2,3)
evenimentul extragerii unei bile dintr-o urnă de compoziţie Ki (i=1,2,3). Atunci,
evenimentele B1, B2, B3 sunt cauze relative la evenimentul A.
3
a) Cu formula (2.12) avem : P(A ) = ∑ P( B ) ⋅ P(A / B ) , unde :
1
i i

P(B1)=2/5, P(B2)=1/5, P(B3)=2/5, P(A/B1)=3/7, P(A/B2)=0, şi P(A/B3)=10/12=5/6.


Deci P(A)=53/105.
b) Cu formula (2.13) deducem :
2 5

P ( B 3 ) ⋅ P ( A / B3 ) P(B3 ) ⋅ P(A / B3 ) 5 6 105
P ( B3 / A ) = 3 = = =
P( A ) 53 159
∑1 P(B j ) ⋅P(A / B j ) 105
Notă : Formula lui Bayes are o importanţă practică considerabilă în aşa-numita statistică bayesiană.
Are aplicaţii curente în : diagnosticul medical funcţie de analizele de laborator, meteorologie pentru
prevederea avalanşelor, domeniul financiar pentru determinarea riscului de faliment a întreprinderilor după
observarea unor aspecte, etc.
18 Eroare! Legătură incorectă.

2.6. Scheme probabilistice clasice

2.6.1. Schema bilei nerevenite


Fie o urnă ce conţine N bile din care a–albe şi b–negre. Din urnă se extrage succesiv
câte o bilă, în total n bile, fără a le introduce din nou în urnă (aceasta echivalează cu a
extrage n bile odată). Care este probabilitatea Pn(x) ca din cele n bile extrase, de x ori să
apară bila albă şi de (n-x) ori bila neagră ?
Avem evident N=a+b ≥ n, x ≤ a, n-x ≤ b. În baza definiţiei clasice a probabilităţii,
avem :

cazuri favorabile Cax C nb − x (2.14)


Pn ( x) = =
cazuri posibile C nN

Generalizare :

Cax11 Cax22 KCaxss (2.15)


Pn ( x1 ,K, x s ) = n
C N

s s
unde : N = ∑ a k , n = ∑ xk , xk ≤ a k , n ≤ N .
1 1

Exemplu : Într-o grupă de 26 studenţi sunt 10 băieţi şi 16 fete. Care este


probabilitatea ca, formând la întâmplare un grup de 17 studenţi, acesta să fie format din 8
băieţi şi 9 fete ?
Soluţie : Aplicând formula (2.14) obţinem :
8
C10 C169 10 !
⋅ 16 !
8! 2 ! 9 ! 7!
P17 (8) = = 26 ! = 0,1647
C1726 17 ! 9 !

2.6.2. Schema bilei revenite (schema lui J. Bernoulli sau schema binomială)
Se consideră urna de mai sus, cu bilele de cele două culori (albe şi negre).
Presupunem că se cunoaşte probabilitatea p a evenimentului A de a extrage o bilă
albă : p=P(A). Extragem din urnă câte o bilă, de n ori, punând de fiecare dată bila extrasă
înapoi. Care este probabilitatea Pn(x) ca din cele n bile extrase, de x ori să avem bila albă
şi de (n-x) ori bila neagră ?
Una din situaţiile în care se realizează evenimentul A de x ori şi A de (n-x) ori, este :
Eroare! Legătură incorectă. 19

A I AIKI A I AI A IKI A
1442443 1442443
de x ori de ( n − x ) ori

Probabilitatea acestei intersecţii, având în vedere că evenimentele sunt independente,


va fi px ⋅ qn-x, unde q=1-p este probabilitatea de a extrage o bilă neagră.
Avem însă Cnx situaţii, după cum de x ori se realizează evenimentele A din cele n
repetări. Aceste situaţii reprezintă evenimente echiprobabile şi incompatibile, deci :

n! (2.16)
Pn ( x) = C xn p x q n − x = pxq n − x
x!( n − x)!

Remarcă : Deoarece bila revine în urnă, fiecare extragere se face din acelaşi conţinut, deci experienţa
se repetă în aceleaşi condiţii.
Cunoaşterea probabilităţii p=P(A), la o extracţie poate fi înlocuită cu situaţia de a cunoaşte conţinutul
urnei. Schema lui Bernoulli se concretizează în practică printr-o selecţie repetată spre deosebire de schema
bilei nerevenite, care corespunde unei selecţii nerepetate.
Notă : Dacă N>>n, aceeaşi condiţie menţinându-se şi pentru perechile a şi x, respectiv b şi n-x, atunci
se arată că cele două probabilităţi date în schemele I şi II sunt aproximativ egale, adică :

Cax C nb − x
≈ C xn p x q n − x
C nN
Exemplu : Se aruncă o monedă de 15 ori. Care este probabilitatea de a obţine de zece
ori stema ?
Soluţie : Avem n=15, x=10, p=1/2, q=1/2, deci :
10 5
⎛ 1⎞ ⎛ 1⎞
P15 (10) = C ⎜ ⎟ ⋅ ⎜ ⎟ = 0,0917
10
⎝ 2⎠ ⎝ 2⎠
15

Generalizare : Schema multinomială

n! (2.17)
Pn ( x1 ,K, x s ) = ⋅ p x1 L p sx s ,
x1 !K x s ! 1

unde x1 bile sunt de culoarea 1,…, xs bile de culoarea s, adică : dintr-o urnă cu bile de s
culori, se extrag n bile, cu revenirea acestora în urnă.
20 Eroare! Legătură incorectă.

2.6.3. Schema lui Poisson


Se consideră n urne, U1, U2, …, Un. Urna Ui conţine ai bile albe şi bi bile negre
( i = 1,n ). Se extrage câte o bilă din fiecare urnă. Se cere probabilitatea ca din cele n bile
extrase, x să fie albe şi (n-x) negre.
Dacă notăm cu pi probabilitatea ca din urna Ui să scoatem o bilă albă şi cu qi
probabilitatea ca din Ui să scoatem o bilă neagră, avem :
ai bi
pi = , qi = = 1 − p i , i = 1, n
a i + bi a i + bi

Raţionând ca în schema lui Bernoulli, probabilitatea cerută este coeficientul lui xkyn-k
din produsul :
(p1x+q1y) (p2x+q2y)… (pnx+qny)
Exemplu : La o specializare (de exemplu ştiinţa materialelor) sunt în anul I 22
studente şi 20 studenţi, în anul II 16 studente şi 10 studenţi, iar în anul III sunt 20 de
studente şi 6 studenţi. Care este probabilitatea ca primul student din fiecare an de studiu
sosit la cursuri într-o zi, să fie de sex feminin ?
Soluţie : Aplicând schema polinomială, avem :
p1=22/42, q1=20/42 ; p2=16/26, q2=10/26 ; p3=20/26, q3=6/26
Probabilitatea cerută este dată de coeficientul lui xy2 din produsul :
⎛ 22 20 ⎞ ⎛ 16 10 ⎞ ⎛ 20 6 ⎞
( p1x + q 1y)( p 2 x + q 2 y)( p 3x + q 3y) = ⎜ x + y⎟ ⎜ x + y⎟ ⎜ x + y⎟
⎝ 42 42 ⎠ ⎝ 26 26 ⎠ ⎝ 26 26 ⎠
22 10 6 20 16 6 20 20 10
obţinem : p = ⋅ ⋅ + ⋅ ⋅ + ⋅ ⋅ ≈ 0,255 .
42 26 26 42 26 26 42 26 26

2.7. Probleme rezolvate


1) Să se calculeze probabilitatea ca la o aruncare cu zarul să apară faţa numerotată cu
1 sau 2.
Soluţie : Fie A evenimentul apariţiei feţei 1 sau 2. Notând cu Ei evenimentul apariţii
1
feţei i (i=1,2,3,4,5,6), avem P(E i ) = .
6
2) Într-o magazie sunt 40 de piese dintre care 4 au defecte. Care este probabilitatea ca
o piesă luată la întâmplare să fie cu defecte ?
Soluţie : Notăm cu A evenimentul ca piesa aleasă să fie cu defecte. Evenimentul fiind
aleator, putem lua orice piesă din cele 40, deci avem 40 de cazuri posibile. Numărul
Eroare! Legătură incorectă. 21

cazurilor favorabile lui A este egal cu numărul pieselor defecte, adică 4. Din definiţia
clasică rezultă P(A)=4/40=0,1.
3) La fabricarea unui dispozitiv pot să apară defecte datorită materialului folosit,
datorită prelucrării pieselor componente şi datorită montajului. Dispozitivul se
consideră bun dacă nu are nici unul din aceste defecte. Din practică se cunoaşte că
datorită materialului folosit 5% din piese au defecte, datorită prelucrării 8% au
defecte, iar datorită montajului 4% au defecte. Se cere probabilitatea minimă ca un
dispozitiv să fie bun.
Soluţie : Notăm cu A evenimentul ca piesele componente să nu aibă defecte din
cauza materialului folosit, cu B ca ele să nu aibă defecte de fabricaţie şi cu D evenimentul
ca dispozitivul să nu aibă defecte de montaj. Se cere P(A∩B∩D), cunoscând

( ) ( ) ( )
P A = 0,05 , P B = 0,08 , P D = 0,04 . Din inegalitatea lui Boole deducem :

P( AI BI D) ≥ 1 − [ P( A ) + P( B) + P( D)] = 1 − 0,17 = 0,83

sau : P(A∩B∩D)≥P(A)+P(B)+P(D)-(3-1)=0,95+0,92+0,96-2=0,83
4) Trei vânători trag simultan asupra unui iepure. Vânătorul nr.1 ocheşte iepurele cu
probabilitatea 0,9, al doilea cu 0,8 şi respectiv al treilea cu probabilitatea 0,7. Se
cere probabilitatea ca iepurele să scape dacă toţi trei vânătorii trag simultan asupra
iepurelui.
Soluţie : Notăm cu Ai (i=1,2,3,) evenimentul ca vânătorul i să ochească iepurele.

Trebuie să se realizeze evenimentul A1 U A 2 U A 3 . Evenimentele Ai fiind independente,

avem P(A1∪A2∪A3)=0,9+0,8+0,7-(0,9⋅ 0,8+0,9⋅0,7+0,8⋅0,7)+ 0,9⋅0,8⋅0,7=0,994 (formula


lui Poincaré).
Probabilitatea cerută va fi deci : p=1- P(A1∪A2∪A3)=0,006.

( ) ( ) ( ) ( )
(Sau : p = P A1 I A 2 I A 3 = P A1 ⋅ P A 2 ⋅ P A 3 = 0,1 ⋅ 0,2 ⋅ 0,3 = 0,006 )

5) O urnă conţine 4 bile albe (a1, a2, a3, a4) şi două bile negre (n1, n2). Se extrag
simultan două bile. Se cere :
1. Să se precizeze probele experienţei
2. Se consideră evenimentele :
A1 – obţinerea a două bile negre
A2 – obţinerea a două bile albe
A3 – obţinerea a cel puţin unei bile negre
22 Eroare! Legătură incorectă.

A4 – obţinerea unei singure bile albe


A5 – obţinerea unei singure bile negre
A6 – obţinerea a două bile verzi
Să se precizeze care dintre ele sunt aleatoare, elementare sau compuse ; perechi de
evenimente compatibile şi incompatibile ; perechi de evenimente egale ; implicaţiile
dintre evenimente.
Soluţie :
1. Probele experienţei sunt : (a1,a2), (a1,a3), (a1,a4), (a2,a3), (a2,a4), (a3,a4),
(a1,n1), (a1,n2), (a2,n1), (a2,n2), (a3,n1), (a3,n2), (a4,n1), (a4,n2) şi (n1,n2). Deci numărul
6⋅5
probelor este C 26 = = 15 .
2
2. Evenimentele A1, …, A5 sunt aleatoare. Evenimentul A6 este imposibil,
el nu este nici elementar nici compus. A1 este elementar, el realizându-se printr-o singură
probă (n1,n2). Avem A1={(n1,n2)}. Evenimentele A2, …, A5 sunt compuse. Apoi, A4=A5 şi
reciproc, deoarece A4 atrage după sine realizarea lui A5 şi reciproc. Aceasta se observă şi
din egalitatea mulţimilor de probe :
A4={(a1,n1), (a1,n2), (a2,n1), (a2,n2), (a3,n1), (a3,n2), (a4,n1), (a4,n2)}
A5={(n1,a1), (n1,a2), (n1,a3), (n1,a4), (n2,a1), (n2,a2), (n2,a3), (n2,a4)}
Avem :
A2={(a1,a2), (a1,a3), (a1,a4), (a2,a3), (a2,a4), (a3,a4)}
A3={(a1,n1), (a1,n2), (a2,n1), (a2,n2), (a3,n1), (a3,n2), (a4,n1), (a4,n2), (n1,n2)}
Sunt compatibile perechile : (A3,A5), (A1,A3), (A4,A5), (A3,A4)
Sunt incompatibile : (A2,A3), (A1,A2), (A1,A4), (A1,A5), (A2,A4), (A2,A5), (Ai,A6),
i=1,2,3,4,5.
Evenimente contrare sunt : A2 şi A3.
Avem implicaţiile : A1⊂A3, A4⊂A5, A5⊂A4, A4⊂A3, A5⊂A3, A6⊂Ai, i=1,2,3,4,5.
6) A şi B fiind două evenimente, să se arate că :
⎟P(A∩B)-P(A)⋅P(B)⎟ ≤1/4
Soluţie : Presupunem că P(A)≥P(B). Deoarece P(A∩B)≤P(B), avem :
P(A∩B)-P(A)⋅P(B) ≤P(B)[1-P(A)]≤ P(A)[1-P(A)]≤1/4
(ultima inegalitate se poate obţine, de exemplu, din inegalitatea mediilor).
Notând P( AI B) = x , P( AI B) = a , P( AI B) = b , observăm că :

a+b+x=P(A∪B)≤1 şi a≤P(A), b ≤ P( A ) = 1 − P( A ) , ab≤P(A)[1-P(A)]≤1/4


Eroare! Legătură incorectă. 23

Deci : P(A∩B)-P(A)⋅P(B)=x-(a+x)(b+x)=x-[ab+x(a+b+x)]≥x-ab-x=-ab≥-1/4
7) Într-un câmp de probabilitate {E,K ,P} fie evenimentele A1, …,An astfel încât
n
⎛ n ⎞
∑1 P ( A i )〉 n − 1 . Să se arate că P⎜ I A i ⎟ 〉0 .
⎝ 1 ⎠
n n
⎛ n ⎞ ⎛ n ⎞
Soluţie : I1 i
A = E − U1 i ⎝ I1 i ⎠
A ; P ⎜ A ⎟ = 1 − P ⎜ U Ai ⎟
⎝ 1 ⎠

⎛ n ⎞ n n n
Dar P⎜ U A i ⎟ ≤ ∑ P (A i ) = ∑ [1 − P (A i )] = n − ∑ P (A i )〈 n − (n − 1) = 1
⎝ 1 ⎠ 1 1 1

⎛ n ⎞
Rezultă : P⎜⎜ I A i ⎟⎟〉 0 .
⎝ 1 ⎠
8) Un grup de 2n băieţi şi 2n fete este împărţit la întâmplare în două grupuri egale. Să
se găsească probabilitatea p ca fiecare grup să aibă acelaşi număr de băieţi şi de fete,
⎛ n+
1

apoi să se estimeze p folosind formula lui Stirling ⎜⎜ n! = 2π ⋅ n 2 e − n , pentru n mare ⎟⎟ .
⎝ ⎠
Soluţie : Notăm cu F mulţimea fetelor şi cu B mulţimea băieţilor. Un eveniment
elementar este o submulţime a lui F∪B care are 2n elemente. Numărul modurilor în care
din 4n băieţi şi fete se pot alege 2n este C 24 nn . Din toate acestea, evenimente elementare

favorabile sunt acele submulţimi ale lui F∪B pentru care numărul fetelor este egal cu
numărul băieţilor şi este egal cu n.
Dar, din 2n fete se pot alege n în C n2 n moduri şi tot la fel pentru băieţi. Deci, n băieţi

şi n fete se pot selecta în C2n n ⋅ C2n n = (C2n n ) moduri, acesta fiind numărul evenimentelor
2

favorabile. Probabilitatea cerută va fi :

p=
(C ) n 2
2n
=
( 2 n!) 2 ( 2 n!) 2
⋅ =
( 2 n!) 4
2n
C 4n ( n!) 4 4 n! ( 4 n!)(n!) 4
Aproximând cu formula lui Stirling, avem :
4
⎡ 2n+ ⎤
1

⎢ 2π ( 2 n ) 2 ⎥ ⋅ e
− 8n

⎣ ⎦ 2
p≈ =
4n+
1
⎛ n+ ⎞
1 4 nπ
2π ( 4 n ) 2 e− 4 n ⎜ 2π n 2 ⎟ e− 4 n
⎝ ⎠

9) Sunt date în exploatare 10 aparate de acelaşi tip, provenind de la 3 fabrici : 3 de la


F1, 5 de la F2 şi 2 de la F3. Aparatele sunt supuse unei probe de verificare. Cele de
24 Eroare! Legătură incorectă.

la F1 trec proba cu probabilitatea 0,95, cele de la F2 cu probabilitatea 0,75 şi cele


de la F3 cu probabilitatea 0,80. Se alege la întâmplare un aparat. Care este
probabilitatea ca aparatul să treacă proba de verificare ?
Soluţie : Notăm cu Ai evenimentul „aparatul ales provine de la fabrica Fi”, i=1,2,3.
Avem : P(A1)=3/10, P(A2)=1/2, P(A3)=1/5. Notând cu A evenimentul „aparatul ales trece
proba de verificare”, vom avea : P(A/A1)=0,95, P(A/A2)=0,75, P(A/A3)=0,80.
Aplicând formula probabilităţii totale, obţinem :
3
P( A ) = ∑ P(A ) ⋅ P(A / A ) = 0,3 ⋅ 0,95 + 0,5 ⋅ 0,75 + 0,2 ⋅ 0,8 = 0,82
1
i i

10) În condiţiile problemei 9, se alege la întâmplare un aparat şi se constată că el trece


proba de verificare. Care este probabilitatea ca el să provină de la fabrica F1 ?
3 95
P( A1 ) ⋅ P( A / A1 ) ⋅
Soluţie : P( A1 / A ) = 3 = 10 100 = 57 = 0,347
41 164
∑1 P(A i ) ⋅ P(A / A i ) 50

11) Într-o cutie sunt aşezate la întâmplare 40 de becuri de 100W, provenind de la trei
fabrici : 15 de la F1, 18 de la F2, 7 de la F3. Care este probabilitatea ca un
cumpărător, care este servit cu 10 becuri alese la întâmplare, să primească 5 de la
F1, 3 de la F2 şi 2 de la F3 ?
Soluţie : Suntem în cazul schemei bilei nerevenite (sau neîntoarse) cu 3 culori :
5
C15 ⋅ C18
3
⋅ C 27
P10 (5,3,2 ) = = 0,0607
C10
40

12) Se aruncă un zar de 5 ori. Care este probabilitatea de a obţine de 3 ori faţa cu 6
puncte şi câte o dată feţele cu 2 şi 3 puncte ?
Soluţie : Se aplică schema lui Bernoulli cu 6 culori. Experienţa se repetă în aceleaşi
condiţii şi n=5, x1=0, x2=1, x3=1, x4=0, x5=0, x6=3 ; p1=p2=…=p6=1/6. Deci :
0 0 0 3
5! ⎛ 1⎞ 1 1 ⎛ 1⎞ ⎛ 1⎞ ⎛ 1⎞
P5 ( 0,1,1,0,0,3) = ⎜ ⎟ ⋅ ⋅ ⋅ ⎜ ⎟ ⋅ ⎜ ⎟ ⋅ ⎜ ⎟ = 0,0026
0!1!1! 0! 0! 3! ⎝ 6⎠ 6 6 ⎝ 6⎠ ⎝ 6⎠ ⎝ 6⎠
13) O piesă fabricată este considerată corespunzând standardului dacă îndeplineşte
condiţiile A, B, C. Datele statistice arată că : 90% din piese îndeplinesc condiţia
A, 87% îndeplinesc condiţia B, 92% îndeplinesc condiţia C. Să se calculeze
probabilitatea ca o piesă fabricată să corespundă standardului.
Soluţie : Este necesar să se realizeze evenimentul S=A∩B∩C. Necunoscând în ce
relaţii sunt condiţiile A, B, C, vom folosi inegalitatea lui Boole pentru n=3 :
Eroare! Legătură incorectă. 25

P(A∩B∩C)≥P(A)+P(B)+P(C)-2, adică :
P(S)≥0,90+0,87+0,92-2=0,69. Deci : 0,69≤P(S)≤1.
14) Trei fabrici F1,F2, F3 trimit acelaşi produs spre vânzare într-un magazin, în
cantităţi proporţionale cu numerele 4, 1 şi 5. Se cunosc proporţiile respective ale
produselor cu defecte primite de la fiecare fabrică : 2%, 3% şi respectiv 1,5%. O
cantitate de produse în valoare de 50.000 lei care a fost vândută este restituită
având defecte care o fac de neîntrebuinţat, iar suma este restituită cumpărătorului.
Ce sume trebuie imputate fiecărei fabrici care a trimis marfa dacă nu se ştie de la
ce fabrică provine produsul respectiv ?
Soluţie : Sumele imputate fabricilor Fi (i=1,2,3) vor fi proporţionale cu probabilităţile
pi (i=1,2,3) ca marfa restituită să fie de la fabrica respectivă. Calculăm deci aceste
probabilităţi, notând cu Ei evenimentul ca marfa să fie de la Fi şi cu X evenimentul ca
marfa să fie defectă.
Avem următoarele evenimente dependente :
X/Ek - marfa defectă aparţinând fabricii Fk, cu probabilitatea P(X/Ek)
Ek/X - marfa care aparţine fabricii Fk este defectă, cu probabilitatea P(Ek/X)
Aplicând formula lui Bayes, obţinem :
P( E i ) ⋅ P( X / E i )
p i = P( E i / X) = 3 ; i = 1,2,3
∑ P( E
1
k ) ⋅ P( X / E ki )

Avem : P(E1)=4/10=0,4 ; P(E2)=1/10=0,1 ; P(E3)=5/10=0,5, P(X/E1)=2/100=0,02 ;


P(X/E2)=3/100=0,03 ; P(X/E3)=1,5/100=0,015.
Făcând înlocuirile în formulă, obţinem :
p1=P(E1/X)=80/185 ; p2=P(E2/X)=30/185 ; p3=P(E3/X)=75/185
Sumele si ce vor fi returnate de fabrici satisfac ecuaţiile :
s1 s s s +s +s s1 s s 50000
= 2 = 3 = 1 2 3 adică : = 2 = 3 =
p1 p 2 p 3 p1 + p 2 + p 3 80 30 75 1
185 185 185
De aici,
80 ⋅ 50000
s1 = = 21622lei
185
30 ⋅ 50000
s2 = = 8108lei
185
26 Eroare! Legătură incorectă.

75 ⋅ 50000
s3 = = 20270lei (rotunjite la numere întregi).
185
15) La un concurs de matematică, trei candidaţi primesc câte un plic care conţine n
(n>3) bilete cu probleme de algebră şi geometrie. Cele 3 plicuri conţin respectiv
câte 1, 2, 3 subiecte de algebră. Fiind examinaţi, cei trei candidaţi extrag fiecare
câte un bilet din plic. Extragerea făcându-se la întâmplare, să se afle probabilitatea
următoarelor evenimente :
a) Toţi candidaţii să fie examinaţi la geometrie
b) Nici un candidat să nu fie examinat la geometrie
c) Cel puţin un candidat să fie examinat la algebră
Soluţie : Aplicăm schema lui Poisson, notând cu p0,3 probabilitatea cerută la punctul
a) Aceasta este coeficientul lui x0y3 din polinomul :
⎛1 n − 1 ⎞⎛ 2 n − 2 ⎞⎛ 3 n−3 ⎞ 1
⎜ x+ y⎟ ⎜ x + y⎟ ⎜ x + y⎟ = 3 [16x 3 + (11n − 18) x 2 y + ( 6n 2 − 22 n + 18) xy 2 +
⎝n n ⎠⎝ n n ⎠⎝ n n ⎠ n
+ ( n − 1)( n − 2 )( n − 3) y ]
3

( n − 1)( n − 2 )( n − 3)
Deci, p 0,3 = .
n3
16
Probabilitatea cerută la punctul b) va fi p 3,0 = 3 (coeficientul lui x3y0 din
n
dezvoltarea de mai sus). Pentru punctul c) trecem la evenimentul contrar punctului a)
adică :
6n 2 + 11n + 6
p = 1 − p 0,3 =
n3
Eroare! Legătură incorectă. 27

Capitolul 3 Variabile aleatoare

3.1. Variabile aleatoare discrete. Definiţie şi exemple.


Notăm cu pi=P(Ai)=P(x=xi) - probabilitatea evenimentului Ai adică a evenimentului
că variabila întâmplătoare (aleatoare) x ia valoarea xi. Fie Sc={A1,A2,…,An} un sistem
complet de evenimente.
Definiţie : Se numeşte variabilă aleatoare o aplicaţie x definită pe Sc cu valori reale
(adică x:Sc→R).

Notăm : x i = x ( A i ), i = 1, n . Dacă Sc este cel mult numărabil, atunci variabila


aleatoare ataşată este discretă şi anume :
- discretă simplă, dacă are un număr finit de valori
- discretă numărabilă, dacă are o infinitate numărabilă de valori.
Variabila aleatoare discretă (v.a.d) se reprezintă printr-un tablou de repartiţie (sau
distribuţie) de forma :
⎛x x2 L xn ⎞ ⎛x ⎞
x :⎜ 1 sau x : ⎜ i ⎟ ,
⎝ p1 p 2 L p n ⎟⎠ ⎝ pi ⎠i =1, n
în care xi sunt valorile variabilei, iar pi sunt probabilităţile cu care variabila x ia aceste
valori xi (adică probabilităţile evenimentelor din sistemul Sc). De aici, rezultă evident că :
n
p i ≥ 0, ∑ p i = 1 .
1

Aceste două condiţii caracterizează v.a.d., iar n poate fi un număr finit sau infinit.
Exemple :
1) Considerăm experienţa aruncării unei monede. Drept sistem complet de
evenimente se consideră acela format din evenimentele elementare A (apariţia
1
stemei) şi A (faţa opusă). Se ştie că P( A ) = P( A ) = , deci putem defini v.a.d
2

{ }
prin : x : A,A → R , x(A)=0, x ( A ) = 1, iar tabloul de distribuţie va fi :

⎛0 1⎞
x : ⎜⎜ 1 1⎟

⎝2 2⎠
2) Să se scrie distribuţia v.a.d ce reprezintă suma punctelor obţinute la aruncarea a
două zaruri.
28 Eroare! Legătură incorectă.

Notăm cu A2, A3, …A12 evenimentele care arată că la aruncarea celor două zaruri s-
au obţinut puncte a căror sumă este 2,3,…,12. Acestea formează un sistem complet de
evenimente şi deci putem defini v.a.d x astfel încât x(Ai)=i, i = 2 ,12 . Tabloul de repartiţie
va fi :
⎛ 2 3 4 5 6 7 8 9 10 11 12 ⎞
x : ⎜⎜ 1 2 3 4 5 6 5 4 3 2 1⎟

⎝ 36 36 36 36 36 36 36 36 36 36 36⎠
3) În exemplul precedent să considerăm evenimentele :
B1 - suma punctelor obţinute să fie cel mult 5
B2 - suma punctelor obţinute să fie 6, 7, 8, sau 9
B3 - suma punctelor obţinute să fie cel puţin 10
Definim v.a.d y:{B1,B2,B3}→ R prin y(B1)=1, y(B2)=2, y(B3)=3.
Tabloul de distribuţie va fi deci :
⎛ 1 2 3⎞
y : ⎜⎜ 10 20 6⎟

⎝ 36 36 36⎠

3.2. Operaţii cu variabile aleatoare discrete


Se consideră v.a.d simple, date prin tablourile de distribuţie :
⎛y ⎞
x: ⎛⎜ i ⎞⎟
x
şi y: ⎜ pi ⎟ unde : pi=P(x=xi), qj=P(y=yj)
⎝ pi ⎠ i =1,n ⎝ i ⎠ j =1,m

1) Se numeşte produsul variabilei x cu numărul a, variabila ax al cărei tablou de


distribuţie este :
⎛ ax ⎞
ax : ⎜ i ⎟
⎝ p i ⎠ i = 1, n

2) Se numeşte puterea de ordinul k a variabilei x, variabila xk al cărei tablou de


distribuţie este :
⎛ xk ⎞
xk : ⎜ i ⎟ , k ∈ Z+
⎝ p i ⎠ i =1, n
Dacă xi≠0 atunci k poate fi şi întreg negativ. De exemplu :

⎛ 1⎞
−1⎜ ⎟
x : ⎜ xi ⎟
⎝ p i ⎠ i =1, n
Eroare! Legătură incorectă. 29

3) Se numeşte suma variabilelor x şi y, variabila x+y cu tabloul de distribuţie


⎛ xi + y j ⎞
( x + y) : ⎜ ⎟
⎝ p ij ⎠ i =1, n ij
[
, p = P ( x = x i )I ( y = y i ) ]
j = 1, n

n m
Se poate arăta că ∑∑p
i = 1 j= 1
ij = 1 . Dacă variabilele sunt independente (adică corespund

unor experienţe independente), atunci :


pij=P(x=xi)⋅ P(y=yj)=piqj

4) Se numeşte produsul variabilelor x şi y, variabila xy cu tabloul de distribuţie :


⎛ xi y j ⎞
xy : ⎜ ⎟
⎝ p ij ⎠ i =1, n ij
[
, p = P ( x = x i )I ( y = y i ) ]
j = 1, n

Cazuri particulare :

a) Dacă constanta c se consideră o variabilă cu tabloul ⎛⎜⎝ 1⎞⎟⎠ , atunci suma (c+x) este
c

v.a.d cu tabloul :
⎛ c + xi ⎞
( c + x) : ⎜ ⎟
⎝ p i ⎠ i =1, n

y
b) Dacă x ≠ 0, vom defini raportul prin yx-1
x
Observaţie : În operaţiile cu v.a.d convenim să scriem valorile variabilei în ordine crescătoare şi o
singură dată. Dacă una din valori apare de două sau mai multe ori, se va scrie o singură dată, iar
probabilităţile acesteia se adună între ele.
Exemplu : Dându-se variabilele independente :

x : ⎛⎜⎝ 0,1 0,5 0,4⎞⎟⎠ şi y : ⎛⎜⎝ 0,5 0,2 0,3⎞⎟⎠


-1 0 2 1 3 6

x
se cer operaţiile : − 5x, x 2 , y-1 , x + y, xy, , y - 2,9
y
Soluţie:
⎛ 1 1 ⎞
− 5x : ⎛⎜⎝ 0,4 0,5 0,1⎞⎟⎠ ; x 2 ⎛
- 10 0 5 ⎜ 0 1 4 ⎞⎟ -1 ⎜ 1⎟
: ⎝ 0,5 0,1 0,4⎠ ; y : 6 3
⎜ ⎟
⎝ 0,3 0,2 0,5⎠

( x + y ) : ⎛⎜⎝ 0,05 0,25 0,02 0,3 0,11 0,15 0,12⎞⎟⎠


0 1 2 3 5 6 8
30 Eroare! Legătură incorectă.

xy : ⎛⎜⎝ 0,03 0,02 0,05 0,5 0,2 0,08 0,12⎞⎟⎠


-6 -3 -1 0 2 6 12

⎛ - 1,9 0,1 3,1⎞


( y − 2 ,9 ) : ⎜⎝ 0,5 0,2 0,3⎟⎠

3.3. Variabile aleatoare continue


În practică există multe experienţe aleatoare care au un câmp de evenimente
nenumărabil şi implicit sistemul de evenimente aleatoare este nenumărabil. Acest fapt
impune considerarea unei variabile aleatoare ale cărei valori acoperă o mulţime continuă
de numere reale (un interval închis [a,b]). Astfel de experienţe sunt de exemplu :
măsurarea masei, a forţei, a lungimii, a timpului, etc. În asemenea cazuri este practic
imposibil de a asocia evenimentelor corespunzătoare fiecărui rezultat câte o probabilitate
nenulă, deoarece numărul cazurilor posibile este infinit. Dacă unei asemenea experienţe i
se ataşează variabila aleatoare x, atunci x ∈[a,b].
Deoarece P(x=x0)=0, vom recurge la a caracteriza nu probabilitatea ca variabila x să
ia valoarea fixă x0, ci ca valorile lui x să parcurgă un interval oricât de mic, de lungime
dx.
Dacă dP(x0)=P(x ∈[x0,x0+dx]) este firesc să presupunem că această probabilitate este
proporţională cu lungimea dx a intervalului, iar dacă factorul de proporţionalitate îl notăm
cu f(x0), atunci dP(x0)=f(x0)dx.

Constatăm astfel că se poate defini o funcţie f:[a,b]→ R care atribuie fiecărei valori
x0∈[a,b], factorul de proporţionalitate f(x0) corespunzător probabilităţii ca variabila x să
ia valori în [x0, x0+dx].

Funcţia f definită astfel, se numeşte funcţie densitate de probabilitate (sau de


repartiţie) (analog cu densitatea unei baze liniare) şi verifică proprietăţile :

1) f(x)≥0, (∀)x ∈[a,b]


b

2) ∫ f (x)dx = 1 (realizarea evenimentului sigur)


a

(Proprietăţile sunt valabile şi în cazul a=-∞, b=+∞).


Prin analogie cu cazul discret, atribuim v.a. continue, x, următorul tablou de
distribuţie (repartiţie) :
Eroare! Legătură incorectă. 31

x : ⎛⎜⎝ f(x)⎞⎟⎠
x
x ∈[ a , b ]

Deci, orice tablou de această formă, în care f(x) verifică proprietăţile 1) şi 2) de mai
sus, reprezintă tabloul de distribuţie al unei v.a. continue.
Exemplu :
⎛ x ⎞
a) Tabloul x : ⎜⎝ 3x 2 ⎟⎠ reprezintă o v.a. continuă, deoarece : f(x)=3x2≥0,
x ∈[ 0,1]

(∀)x∈[0,1] şi ∫ 3x dx = 1 .
0
2

b) Tabloul x : ⎛⎜⎝ lnx⎞⎟⎠


x
reprezintă de asemenea o v.a. continuă, pentru că lnx≥0,
x ∈[1, e ]

(∀)x∈[1,e] şi ∫ ln xdx = 1 .
1

3.4. Funcţia de repartiţie

Definiţie : Fie x o variabilă aleatoare (discretă sau continuă) având tabloul de


distribuţie :
⎛ xi ⎞
respectiv ⎛⎜⎝ f ( x )⎞⎟⎠
x
⎜ ⎟
⎝ p i ⎠ i =1, n x ∈[ a , b ]

Se numeşte funcţie de repartiţie corespunzătoare v.a. x, funcţia F:R→[0,1] definită


prin F(x0)=P(x<x0), x0∈R.

Această definiţie este luată după Kolmogorov, acceptându-se însă şi F(x0)=P(x≤x0).

Proprietăţi :
P1) 0≤F(x0)≤1, (∀)x0 ∈R
P2) F(-∞)=0 şi F(∞)=1
P3) F(β)-F(α)=P(α≤x<β)
P4) F este nedescrescătoare

Aceste proprietăţi rezultă din însăşi definiţia funcţiei de repartiţie.


Astfel, P1 este adevărată pentru că F este o probabilitate, iar P2 este imediată deoarece
F(-∞)=P(x<-∞)=P(Φ)=0 şi F(∞)=P(x<∞)=P(E)=1.
32 Eroare! Legătură incorectă.

Pentru P3 observăm că evenimentul x<β se scrie ca reuniunea evenimentelor


incompatibile x<α şi α≤x<β, deci P(x<β)= P(x<α)+P(α≤x<β), de unde :
P(α≤x<β)=P(x<β)-P(x<α)= F(β)-F(α)
Din P3 se deduce imediat P4 : F(x2)-F(x1)= P(x1≤x<x2)≥ 0 dacă x2≥x1, deci
F(x2)≥F(x1) adică F este nedescrescătoare.

3.4.1.Funcţia de repartiţie pentru variabila aleatoare discretă


Dacă x este v.a.d atunci x<x0 este reuniunea acelor evenimente x=xi pentru care xi<x0,
adică : x < x 0 = U ( x = x i ) . Evenimentele x=xi fiind incompatibile, avem :
xi < x0

⎛ ⎞
F( x 0 ) = P(x < x 0 ) = P⎜ U ( x = x i )⎟ =
⎝ xi <xo ⎠
∑ P( x = x ) = ∑ p
xi <x0
i
xi <x0
i

Acest rezultat defineşte funcţia de repartiţie pentru v.a.d ca funcţie cumulativă a


probabilităţilor. Graficul acestei funcţii este în scară (fig. 3.1).

 pi=1

p1+…+pn-1

p1+p2
p1

x1 0 x2 x3 … xn-1 xn
Fig.3.1
Exemplu : Să se determine F(x) pentru v.a.d x având tabloul de repartiţie :

x : ⎛⎜⎝ 0,1 0,7 0,2⎞⎟⎠


-1 2 4

Să se reprezinte grafic şi să se calculeze P(0≤x<5)


Soluţie :
Eroare! Legătură incorectă. 33

x0 ≤ -1 ⇒ F(x)=P(x<x0)=P(Φ)=0
-1<x0≤ 2 ⇒F(x)=P(x<x0)=P(x=-1)=0,1
2<x0 ≤ 4 ⇒ F(x)=P(x<x0)=P((x=-1)∪ (x=2))= P(x=-1)+P(x=2)=0,1+0,7=0,8
x0 >4 ⇒ F(x)=P(x<x0)=P(E)=1
Deci :
⎧0 , x≤1
⎪ 0,1 , −1< x ≤ 2
F( x ) = ⎨0,8 , 2<x≤4
⎪1 , x>4

Graficul este dat în fig.3.2.

0,8

0,1

-1 0 Fig.3.2. 2 4

P(0≤x<5)=F(5)-F(0)=1-0,1=0,9
Este util de reţinut următoarea teoremă (fără demonstraţie) :

Funcţia de repartiţie corespunzătoare v.a.d este o funcţie continuă la stânga în orice


punct, adică :
P( x < x 0 ) = F( x 0 ) = lim F( t ) = lim P(x < t ), (∀ ) x 0 ∈ R .
t→ x 0 t→ x 0
t<x0 t< x0
34 Eroare! Legătură incorectă.

3.4.2.Funcţia de repartiţie pentru variabila continuă

Fie x : ⎛⎜⎝ f(x)⎞⎟⎠


x
o v.a. continuă. Să scriem proprietatea P3 când β=x0+Δx, α=x0 :
x ∈[ a , b ]

F(x0+Δx)-F(x0)=P(x0≤x<x0+Δx)=dP(x0)=f(x0)Δx (vezi definirea v.a. continue).


Împărţind cu Δx şi trecând la limită când Δx→0, deducem :
F( x 0 + Δx ) − F( x 0 )
lim = F′ ( x 0 ) ⇒ F′ ( x 0 ) = f ( x 0 ) şi deci :
Δx → 0 Δx
x0

F( x 0 ) = ∫ f (x)dx
a

Relaţiile de mai sus exprimă legătura dintre funcţia de repartiţie F(x) şi densitatea de
probabilitate (sau de repartiţie) f(x) : F’(x)=f(x).
Proprietatea P3 devine :

P(α ≤ x < β ) = F(β ) − F(α ) = ∫ f ( x ) dx


α

Aşadar, funcţia de repartiţie în cazul v.a. continue, se va scrie explicit :

⎧ 0 , x≤a
⎪⎪ x
F( x ) = ⎨∫ f (u )du , a < x ≤ b (u = var iabila de int egrare) ,
⎪a
⎪⎩ 1 , x>b

şi va avea graficul de forma prezentată în fig.3.3.


F(x)

a b x
Fig.3.3

Observaţii :
Eroare! Legătură incorectă. 35

3. . Deoarece F’(x0)=f(x0) 0, F(x) este nedescrescătoare


3. . Deoarece F(x)=0 pt. x≤a şi F(x)=1 pt. x>b, vom considera pentru F(x) exprimarea :
x

F( x ) = ∫ f ( x ) dx , x ∈ [a,b]
a

3. . F(x) este o funcţie continuă

Exemple :
⎛ x ⎞
1) Să se determine funcţia de repartiţie pentru v.a. continuă x : ⎜⎝ 3x 2 ⎟⎠ , să se
x ∈[ 0 ,1]

⎛1 3⎞
reprezinte grafic şi să se calculeze P⎜ ≤ x< ⎟
⎝2 4⎠
Soluţie :
⎧0 , x ≤ 0 , deoarece F(x) = P(Φ ) = 0
⎪⎪ x

F( x ) = ⎨x 3 , 0 < x ≤ 1 , deoarece ∫ 3x 2 dx = x 3
⎪ 0
⎪⎩1 , x > 1 , deoarece P(x) = P(E) = 1
Graficul este prezentat în fig.3.4.

F(x)

0 1 x
Fig.3.4
3
4
⎛1 3⎞ ⎛3⎞ ⎛1⎞ 19
P⎜ ≤ x < ⎟ = F⎜ ⎟ − F⎜ ⎟ = ∫ 3x dx =
2

⎝2 4⎠ ⎝4⎠ ⎝2⎠ 1 64
2

Notă : Pentru v.a. continuă x, au loc egalităţile :


P(α≤x<β)=P(α≤x≤β)=P(α<x<β)=P(α<x≤β) şi P(x≥α)=1-F(α)
36 Eroare! Legătură incorectă.

2) Să se determine constantele reale a, b, c astfel ca funcţia F(x) de mai jos să fie o


funcţie de repartiţie.
⎧ (a − 2b)x
⎪ , x≤0
x+3
⎪⎪ π
F( x ) = ⎨ c ⋅ sin x , 0< x≤
⎪ 2
⎪ (a + b − 2)x − 1 , π
2

⎪⎩ x>
x2 − 1 2
Soluţie :
F(−∞ ) = lim F( x ) = a − 2 b = 0 ; F(∞ ) = lim F(x ) = a + b − 2 = 1
x → −∞ x →∞

Din sistemul : a-2b=0, a+b=3 rezultă a=2 şi b=1, iar din condiţia ca F(x) să fie
⎛ ⎛ π⎞ ⎛ π⎞ ⎛ π⎞⎞
continuă ⎜ l s ( 0) = l d ( 0) = F( 0) şi l s ⎜ ⎟ = l d ⎜ ⎟ = F⎜ ⎟ ⎟ se obţine c=1.
⎝ ⎝ 2⎠ ⎝ 2⎠ ⎝ 2⎠⎠

3.5. Funcţia de repartiţie bidimensională

O variabilă aleatoare X:E⊂R2→R, X=(X1,X2), unde X1 şi X2 sunt variabile aleatoare


reale, se numeşte vector aleator bidimensional sau variabilă aleatoare bidimensională.

Definiţie : Funcţia F(x1,x2)=P(X1<x1,X2<x2) se numeşte funcţie de repartiţie a


vectorului X sau funcţie de repartiţie bidimensională.

Dacă I={(u1,u2)⎪u1<x1,u2<x2} iar Ex={e∈E⎪X(e)∈I}, atunci F(x)=F(x1,x2)=P(Ex)

Proprietăţi :
1) Dacă x1≤ x1’, x2≤x2’ atunci F(x1,x2)≤F(x1’,x2’) adică I⊂I’.

2) 0≤F(x1,x2)≤ 1

3) P(a1≤X1<b1, a2≤X2<b2)=F(b1,b2)-F(a1,b2)-F(a2,b1)+F(a1,a2)

4) Dacă notăm (-∞,-∞)=-∞ şi (∞,∞)=+∞, atunci :


F(−∞) = lim F( x ) = lim F( x 1 , x 2 ) = F(−∞,−∞) = 0
x → −∞ x 1 → −∞
x 2 → −∞

F(+∞) = lim F( x ) = lim F( x 1 , x 2 ) = F(+∞,+∞) = 1


x →∞ x 1 → +∞
x 2 → +∞

Densitatea de repartiţie corespunzătoare funcţiei de repartiţie F(x)=F(x1,x2) este :


Eroare! Legătură incorectă. 37

∂2F
f ( x1 , x2 ) = ; dacă f(x1,x2) există şi este continuă, atunci :
∂x1∂x2

x1 x 2 x1 x 2

F ( x1 , x2 ) = ∫ ∫ f (u , u )du du
−∞ −∞
1 2 1 2 şi ∫ ∫ f (u , u )du du
−∞ −∞
1 2 1 2 =1

Dacă v.a. X1, X2 sunt independente şi au densităţile de repartiţie f1(x1), f2(x2) atunci :
f(x1,x2)=f1(x1)⋅ f2(x2).
Notă : În mod absolut identic, cele de mai sus se pot generaliza pentru o variabilă aleatoare n-
dimensională X=(X1,…,Xn)∈Rn şi astfel se defineşte funcţia de repartiţie multidimensională .

3.6. Grafice pentru variabile aleatoare


În studiul unei v.a. sunt utile reprezentările grafice ale funcţiilor densitate de
probabilitate ataşate v.a.

3.6.1.Pentru v.a. discretă


n n
⎛x ⎞
Avem x : ⎜ i ⎟ unde pI=f(xI) ≥0 şi ∑ pi = ∑ f ( x i ) = 1 .
⎝ pi ⎠i =1, n 1 1

În planul xOy se determină punctele Mi(xi,pi) prin unirea cărora se pot trasa curbe
(grafice). Una din aceste curbe se obţine unind punctele prin segmente de dreaptă. Se
obţine curba de distribuţie a variabilei X. (fig,.3.5)
f(x)

pi Mi
M2

Mn
M1

O x1 x2 … xi … xn x
Fig. 3.5
38 Eroare! Legătură incorectă.

În practică se foloseşte şi un alt mod de a reprezenta grafic valorile variabilei


aleatoare X. Se consideră valorile echidistante şi se ia drept unitate de lungime xi-xi-1=1.
În acest caz, ordonata pi=f(xi) are ca măsură acelaşi număr care exprimă şi aria
dreptunghiului de bază xi-xi-1=1 şi înălţime pi. De regulă se consideră dreptunghiuri astfel
încât xi să fie la mijlocul bazei (fig. 3.6). O astfel de reprezentare grafică este numită
histograma variabilei aleatoare. Unind mijloacele laturilor superioare ale
dreptunghiurilor din histogramă, se obţine curba de distribuţie. Aria histogramei este
egală cu 1.

f(x)

Mi

M2

Mn
M1

O x1 x2 … xi … xn x

Fig. 3.6

3.6.2.Pentru v.a. continuă,

b
X : ⎛⎜ f (xx ) ⎞⎟ , unde f(x)≥0 (funcţia densitate) şi ∫ f ( x )dx = 1 .
⎝ ⎠ x∈[ a , b ] a

Graficul reprezentat în acelaşi plan xOy va fi o curbă continuă, ce se obţine prin


metoda cunoscută din analiza matematică. Ea se va numi curba de distribuţie a v.a.
continue (fig.3.7)
Eroare! Legătură incorectă. 39

f(x) P(xi<X<x2)

y=f(x)

O a x1 x2 b x

Fig. 3.7

3.7. Probleme rezolvate

1) Să se determine constantele a şi b astfel încât funcţia :


F(x)=a+b arctg x, x∈R
Să fie o funcţie de repartiţie. Dacă X este o variabilă cu această repartiţie să se
calculeze P(0<X<1).
Soluţie :
π
lim F( x ) = 1 ⇔ lim (a + b arctg x ) = a + b =1
x →∞ x →∞ 2
π
lim F( x ) = 0 ⇔ lim (a + b arctg x ) = a − b =0
x → −∞ x → −∞ 2
1 1
Deci : a = ,b =
2 π

2) La o întreprindere industrială consumul zilnic dintr-o anumită materie primă este


considerat normal (adică nu depăşeşte o limită fixată) cu probabilitatea 0,8.
a) Să se scrie legea de distribuţie (repartiţie) a v.a. care reprezintă consumul normal
(în zile) într-o săptămână (5 zile lucrătoare).
b) Să se afle funcţia de repartiţie corespunzătoare.
Soluţie :
a) Într-o zi lucrătoare se poate produce unul din următoarele două evenimente :
A – consumul este normal şi p=P(A)=0,8
40 Eroare! Legătură incorectă.

B – consumul normal este depăşit şi q=1-p=P(B)=0,2


Cele 5 zile lucrătoare consecutive reprezintă 5 probe efectuate după schema lui
Bernoulli, deci probabilitatea ca din 5 probe un număr de x să fie cu consum normal este
dată de relaţia :
P5 ( x ) = C 5x ⋅ (0,8) x ⋅ (0,2) 5− x ; x = 0,5

Deci :

p0=P5(0)=(0,2)5 0,0003
p1=P5(1)=5⋅0,8⋅(0,2)4 0,0064
p2=P5(2)=10⋅(0,8)2⋅(0,2)3 0,0512
p3=P5(3)=10⋅(0,8)3⋅(0,2)2 0,2048
p4=P5(4)=5⋅(0,8)4⋅(0,2) 0,4096
p5=P5(5)=(0,8)5 0,3277

Tabloul de distribuţie al variabilei aleatoare discrete X va fi :

X : ⎛⎜ 0,0003
0
0,
1
0064 0,
2
0512 0,
3
2048 ,
4
4096 0,
5 ⎞
3277 ⎟
⎝ ⎠

b) Funcţia de repartiţie pentru această variabilă discretă va fi :

⎧ 0 , x≤0
⎪0,0003 , 0 < x ≤1
⎪0,0067 , 1< x ≤ 2

F( x ) = ⎨0,0579 , 2<x≤3
⎪0,2627 , 3< x ≤ 4
⎪0,6723 , 4<x≤5
⎪⎩ 1 , x >5

λx
3) Se consideră f ( x ) = e − λ ; x=0,1,2,3,… ; λ >0 (funcţia densitate de
x!
probabilitate a distribuţiei Poisson).

a) Să se verifice că f(x) este într-adevăr o densitate de probabilitate (sau de


repartiţie)
b) Să se arate că această distribuţie (Poisson) este valoarea asimptotică a distribuţiei
Bernoulli (schema binomială), adică :
λx
e −λ = lim C nx p x q n − x ; unde : λ =np
x! x →∞
Eroare! Legătură incorectă. 41

Soluţie :
a) f(x)≥0 (evident când λ >0)
A doua condiţie se va scrie :

λx ∞
λx ∞
λx
∑e
x =0
−λ

x!
=e ∑
−λ

x = 0 x!
=e − λ e λ = 1 , deoarece ∑
x = 0 x!
este seria lui eλ . Deci f(x) este o

densitate de repartiţie.
n (n − 1) K (n − x + 1) x n − x n (n − 1) K[n − ( x − 1)] n x ⋅ p x
b) f n ( x ) = C nx p x q n − x = ⋅p ⋅q = ⋅ ⋅
x! nx x!
n n − 1 n − ( x − 1) (np) x n − x
⋅ q n−x = ⋅ L ⋅ q
n n n x!
λ λ
Notăm np=λ, adică p = , q = 1 − şi obţinem :
n n
n−x n −x
n n − 1 n − ( x − 1) λx ⎛ λ ⎞ ⎛ 1⎞ ⎛ x − 1 ⎞ λx ⎛ λ ⎞
⎛ λ⎞
f n (x) = ⋅ L ⋅ ⎜1 − ⎟ = 1⎜1 − ⎟ L ⎜1 − ⎜1 − ⎟⎟ ⋅ ⎜1 − ⎟
n n n x! ⎝ n⎠ ⎝ n⎠ ⎝ ⎝ n ⎠ x! ⎝
n⎠ n⎠
⎛ k⎞
Presupunând n mare iar p mic dar astfel încât np=λ să fie constant, factorii ⎜1 − ⎟ ,
⎝ n⎠
n −x
⎛ λ⎞ ⎛ λ⎞
k=1,2,…x-1 tind către 1 ; ⎜1 − ⎟ → e − λ şi ⎜1 − ⎟ → 1.
⎝ n⎠ ⎝ n⎠
λx − λ
Deci : lim f n ( x ) = e
n →∞ x!

Observaţii :

a) Această aproximare a legii binomiale (Bernoulli) prin legea de distribuţie a lui Poisson presupune
îndeplinite următoarele condiţii :
- probabilitatea p să fie mică (motiv pentru care legea lui Poisson este numită legea micilor
probabilităţi)
- p să fie mic în raport cu n, adică realizarea evenimentului cu probabilitatea p, în n probe este rară
(legea evenimentelor rare)
b) Comparând densităţile de repartiţie ale celor două distribuţii observăm că densitatea de repartiţie a
distribuţiei binomiale depinde de doi parametri (n şi p) iar cea a distribuţiei Poisson doar de parametrul λ.

4) Într-o anumită perioadă (de vârf), o centrală telefonică primeşte 420 de apeluri pe
oră. Ştiind că centrala poate da 20 de legături / minut şi considerând îndeplinite
condiţiile distribuţiei Poisson, să se calculeze probabilitatea evenimentului prin
42 Eroare! Legătură incorectă.

care apelând un număr de telefon prin centrală, să nu-l putem obţine timp de un
minut.
Soluţie :
V.a. X reprezentând numărul de apeluri telefonice primite la centrală într-un minut,
λx
are deci o distribuţie Poisson, cu funcţia densitate de probabilitate : f (x) = e −λ ,
x!
420
parametrul λ fiind numărul de apeluri / primiri. În cazul nostru, λ = =7.
60
7x
Deci : f ( x ) = e − 7 şi se cere P(X>20)=1-P(X≤20).
x!
Avem :

7x −7 ⎛ 7 72 7 20 ⎞
20 20
1
P(X > 20) = 1 − ∑ f ( x ) = 1 − e ∑ −7
= 1 − e ⎜⎜1 + + +L+ ⎟⎟ ≈ 1 − 7 ⋅1096,08 ≈ 0,04
x =0 x = 0 x! ⎝ 1! 2! 20! ⎠ e

5) Să se arate că dacă variabilele aleatoare X şi Y sunt egale aproape sigur atunci ele
au aceeaşi repartiţie.
Soluţie :
Fie B mulţimea punctelor în care X şi Y diferă, adică B={X≠Y}. Prin ipoteză, această
mulţime este de măsură (respectiv probabilitate) nulă : P(B)=0.
Avem incluziunea : {X∈A}⊂{Y∈A}∪B, unde A este orice submulţime măsurabilă a
mulţimii în care X şi Y iau valori.
Rezultă : P(X∈A)≤P(Y∈A)+P(B)=P(Y∈A)
Analog, {Y∈A}⊂{X∈A}∪B⇒ P(Y∈A)≤P(X∈A)+P(B)=P(X∈A)
Din cele două inegalităţi deducem că P(X∈A)= P(Y∈A), deci au aceeaşi repartiţie.
Eroare! Legătură incorectă. 43

Capitolul 4 Caracteristici numerice ale variabilelor aleatoare


Pentru compararea diverselor fenomene care generează variabile aleatoare sunt
necesare date numerice (caracteristici numerice) care trebuie să îndeplinească o serie de
condiţii : să fie definite în mod obiectiv, să aibă o semnificaţie strict legată de variabila în
cauză, să fie uşor de calculat şi de folosit operaţiile algebrice, să fie cât mai insensibile la
fluctuaţii şi eşantionare.
Aceste caracteristici numerice se pot împărţi în trei categorii : caracteristici de
grupare, de împrăştiere şi caracteristici care dau informaţii despre forma distribuţiei.

4.1. Caracteristici de grupare

4.1.1.Valoarea medie (speranţa matematică)


a variabilei aleatoare X este numărul :

⎧ n
⎪ ∑ x i pi , în cazul discret
⎪ i =1 (4.1)
M (X) = ⎨ b
⎪ xf ( x )dx , în cazul continuu
⎪⎩∫a

Proprietăţi :
1) x1≤M(X)≤xn, în cazul discret
a≤M(X)≤b, în cazul continuu
2) M(c)=0, c=constantă
3) M(cX)=cM(X)
4) M(X+Y)=M(X)+M(Y)
5) M(XY)=M(X)⋅M(Y) dacă X şi Y sunt independente
6) Dacă X, Y sunt v.a.d. astfel încât există M(X2) şi M(Y2), atunci are loc
inegalitatea lui Schwartz :

( ) ( )
M (XY ) ≤ M X 2 ⋅ M Y 2

Exemple :
1) Se dă v.a.d. X cu tabloul

X : ⎛⎜ −
0,
1 3
1 0,7 0
8 ⎞
,2 ⎟⎠

Deducem M(X)=-1⋅0,1+3⋅0,7+8⋅0,2=3,6
44 Eroare! Legătură incorectă.

2) Pentru v.a. continuă, cu tabloul :

X : ⎛⎜ 2 ⎞⎟
x
,
⎝ 3x ⎠ x∈[0,1]
1 1

∫ x ⋅ 3x dx = 3∫ x dx =
2 3
avem : M(X) = 3
4
0 0

Observaţie : Fie X o v.a.d. care ia valorile xi, i I, cu probabilitatea pi=P(X=xi) şi A un eveniment


pentru care P(A)
0.

Dacă seria ∑ x P(X = x


i∈I
i i / A ) este absolut convergentă, atunci :

M (X / A ) = ∑ x i P( X = x i / A ) (4.2)
i∈I

Se numeşte valoare medie condiţionată, a lui X de către A.


Se demonstrează că dacă {An}n∈N este un sistem complet de evenimente, iar X este v.a.d. a cărei
valoare medie există, atunci :
∞ (4.3)
M (X) = ∑ P(A n )M (X / A n )
n =1

4.1.2. Valoarea mediană (mediana variabilei aleatoare)

Dacă X este v.a. discretă sau continuă, atunci numărul real Me pentru care :
P(X≥Me)≥1/2≤P(X≤Me), (4.4)
se numeşte mediană.

Relaţia (4.4) se poate înlocui cu :


F(Me)≤1/2 şi F(Me+0)≥1/2 (4.5)
Reţinem că nu orice v.a.d. admite valoare mediană. Convenim totuşi ca Me să fie
valoarea cea mai mare pentru care F(Me)≤1/2. Dacă F(Me)=1/2 pentru valorile din
[xk,xk+1] atunci se va lua Me=( xk+xk+1)/2.
În cazul v.a. continue, mediana este unic determinată de ecuaţia :

x ∞
1 (4.6)
−∞
∫ f (x)dx = ∫ f (x)dx =
x
2

Din punct de vedere geometric, Me este abscisa punctului prin care trece paralela la
Oy, care împarte în două părţi egale aria limitată de curba de ecuaţie y=f(x)şi de axa Ox.
Eroare! Legătură incorectă. 45

Exemple :
⎛0 3⎞
1) Pentru v.a.d. X : ⎜ 1 1 ⎟ funcţia de repartiţie F(x) va fi :
⎜ ⎟
⎝2 2⎠
⎧0 , x ≤ 0
⎪1 1
F( x ) = ⎨ , x ∈ (0,3], F( x ) = (∀)x ∈ (0,3]
⎪2 2
⎩1 , x > 3
0+3
Deci, Me este orice valoare din (0,3] şi vom lua M e = = 1,5
2

2) V.a.d. X : ⎛⎜ 0−,21 02,5 04,3 ⎞⎟


⎝ ⎠
are funcţia de repartiţie :
⎧0 , x ≤1
⎪ 1
⎪0,2 , x ∈ (−1,2]; F( x ) ≠
F( x ) = ⎨ 2
⎪0,7 , x ∈ (2,4]
⎪⎩1 , x>4

Deoarece F(x)=1/2 este imposibilă, variabila nu admite Me. Conform definiţiei, se va


lua Me=2.

3) V.a. continuă X : ⎛⎜ 2 ⎞⎟
x
, are funcţia de repartiţie :
⎝ 3x ⎠ x∈[0,1]

⎧0 , x≤0
⎪ 1
F( x ) = ⎨x 3 , x ∈ (0,1], F( x ) =
⎪ 2
⎩1 , x >1

Rezultă ecuaţia x3=1/2 care are soluţia unică : x=2-1/3.

4.1.3.Cuantile.
Valoarea mediană poate furniza în unele situaţii, indicaţii mai bune despre repartiţia
unei variabile aleatoare decât valoarea medie. Este firesc deci, să extindem noţiunea de
mediană în vederea obţinerii unei posibilităţi mai mari în studiul funcţiilor de repartiţie.

Astfel, generalizând noţiunea de mediană prin considerarea soluţiilor ecuaţiilor


i
F( x ) = , i = 1, n − 1 , se obţin aşa numitele valori cuantile de ordinul n :
n

- O cuantilă de ordinul 2 (mediana), când n=2.


46 Eroare! Legătură incorectă.

- Două cuantile de ordinul 3, când n=3.


- Trei cuantile de ordinul 4 (cuartile), când n=4.
- Nouă cuantile de ordinul 10 (decile), când n=10.
- Nouăzeci şi nouă cuantile de ordinul 100 (centile sau procentile), când n=100.

Pentru v.a. continuă, valorile xi, i=1,n-1 pentru care :


x1 x2 ∞
1 (4.7)

−∞
dF( x ) = ∫
x1
dF( x ) = K = ∫
x n −1
dF( x ) =
n

se numesc cuantile. În particular, pentru n=4, avem :

x1 x2 x3 ∞
1

−∞
dF( x ) = ∫
x1
dF( x ) = ∫
x2
dF( x ) = ∫
x3
dF( x ) =
4
; x1, x2, x3 sunt cuartile.

Astfel :
F(x1)≤1/4 şi F(x1+0)≥1/4
F(x2)≤1/4+F(x1)≤1/2 şi F(x2+0)≥1/2
F(x3)≤1/4+F(x2)≤3/4 şi F(x3+0)≥3/4
Observăm că a doua cuantilă x2 coincide cu mediana.
Raportată la valoarea medianei, cuartilele x1 şi x3 se numesc cuantila inferioară
(mică) respectiv cuantila superioară (mare).

4.1.4.Valoarea modală (moda)

Fiind notată cu Mo este valoarea cea mai probabilă a variabilei aleatoare (în cazul discret)
şi respectiv abscisa punctului de maxim al funcţiei densitate de repartiţie, f(x) (în cazul
continuu).

Dacă f(x) are mai multe puncte de maxim atunci v.a. X se numeşte plurimodală.
Pentru repartiţiile simetrice unimodale, valoarea medie M(X) coincide cu moda Mo. Deci
:

în cazul discret, Mo este valoarea pe care X o ia cu cea mai mare probabilitate, iar în
cazul continuu este numărul (abscisa) în care f(x) are valoarea maximă. În cazul v.a.d. Mo
poate să nu fie unic.
Eroare! Legătură incorectă. 47

În fig. 4.1 se poate vedea moda în cazul v.a. discrete, iar în fig. 4.2 în cazul v.a.
continue.
P(X=xi) f(x)

O Mo x O Mo x

Fig. 4.1 Fig. 4.2

Exemple :

1) Pentru v.a.d. cu tabloul de distribuţie X : ⎛⎜ −


0,
1 3
1 0, 7 0
8 ⎞ , avem M =3 pentru că
,2 ⎟⎠ 0

p2=0,7 este valoarea cea mai mare.

2) Pentru v.a.d. dată de ⎛⎜ 0−.21 00.3 01.1 04.1 05.3 ⎞⎟ , avem două valori modale: 0 şi 5.
⎝ ⎠

3) Pentru v.a. continuă ⎛⎜ 2 ⎞⎟


x
, avem M0=1, deoarece :
⎝ 3x ⎠ x∈[0,1]

x∈[0 ,1]
[ ]
max f ( x ) = 3x 2 x =1 = 3 (abscisa punctului de maxim este 1).

4.1.5.Momente şi medii de ordin superior.

Fie X o v.a. discretă sau continuă. Se numeşte moment de ordin r , numărul Mr (r N)


definit astfel :
⎧n r (4.8)
⎪⎪∑ x i p i , în cazul discret
M r = M ( X ) = ⎨ b1
r

⎪ x r f ( x )dx, în cazul continuu


⎪⎩∫a

Se presupune că există valoarea medie a v.a. Xr. Evident M1(x)=M(X).

Se numeşte medie de ordinul r a v.a. X, numărul r dat de :


48 Eroare! Legătură incorectă.

⎧ n (4.9)
1
⎪r

∑ x ir p i , în cazul discret
η r (X) = [M r (X)] r
1
=⎨ b
⎪r
∫ x f (x )dx , în cazul continuu
r

⎩ a

r
Valoarea medie a variabilei X se numeşte momentul absolut de ordinul r al

variabilei X :

( ) = M( )= ∑ x (4.10)
n r
r
Mr X X i pi
1

Exemple :

1) Pentru v.a.d. cu tabloul de distribuţie X : ⎛⎜ − 1 3 8 ⎞ , avem :



⎝ 0,1 0,7 0,2 ⎠
M1= -1 0,1 + 3 0,7 + 8 0,2 = 3,6 ; 1=3,6
M2= (-1)2 0,1 + (3)2 0,7 + (8)2 0,2 = 19,2 ; 2 = 4,3818
M3= (-1)3 0,1 + (3)3 0,7 + (8)3 0,2 = 121,2 ; 3 = 4,9488 etc.

2) Pentru v.a. continuă ⎛⎜ 2 ⎞⎟


x
, avem :
⎝ 3x ⎠ x∈[0,1]
M1= M(X)=3/4, 1=3/4
1
3
M 2 = ∫ x 2 3x 2 dx = , 2=0,7746
0
5
1
1
M 3 = ∫ x 3 3x 2 dx = , 3=2-1/3
0
2
……………………………………………………..

1
3 3
M n = ∫ x n 3x 2 dx = , n= n

0
n+3 n +3

4.2.Caracteristici de împrăştiere.
Deoarece caracteristicile de grupare nu pot oferi nici o indicaţie asupra împrăştierii
(concentrării) valorilor variabilei faţă de valoarea de grupare, sunt necesare caracteristici
numerice care să respecte gradul de împrăştiere a valorilor variabilei între ele şi a acestora
faţă de valoarea medie.
Eroare! Legătură incorectă. 49

4.2.1.Variabila abatere. Abaterea absolută medie.

Fie v.a.d. X cu media M(X)=m. Se numeşte variabilă abatere a variabilei X faţă de r


variabila (X-r).

De regulă se consideră abaterea faţă de valoarea medie m, adică X-M(X)=X-m.

Teoremă : Valoarea medie a variabilei abatere este nulă.

Demonstraţia este imediată : M(X-m)=M(X)-m=m-m=0 ( vezi propoziţiile 3 şi 4 ale


valorii medii).

Se numeşte abatere absolută medie , numărul M( X-m ) dat de expresia :


⎧n (4.11)
⎪∑ x i − m ⋅ p i , în cazul discret

M ( X − m ) = ⎨ bi =1
⎪ x − m f ( x )dx, în cazul cotinuu
⎪⎩∫a

Se constată că M( X-m )
0 dacă X
constantă şi acest număr se poate considera
ca şi caracteristică de împrăştiere a v.a. faţă de medie (m).
Exemple :

1) Pentru v.a.d. X : ⎛⎜ −
0,
1 3
1 0, 7 0
8 ⎞ , cu variabila abatere (X-3,6) dată de tabloul :
,2 ⎟⎠

− 4,6 0,6 4,4 ⎞
(X − 3.6) : ⎛⎜ ⎟.
⎝ 0,1 0,7 0,2 ⎠
Se verifică direct că M(X-3,6) = M(X)-3,6=0 (media a fost calculată în exemplul
precedent fiind egală cu 3,6).
2) Pentru v.a. dată mai sus, considerăm :

X − 3.6 : ⎛⎜ 00..76 04..24 40..61 ⎞⎟


⎝ ⎠
Avem : M( X-3,6 )= 0,42+0,88+0,46=1,76
3) Să se scrie variabila abatere şi să se calculeze abaterea absolută medie a v.a.

continue ⎛⎜ 2 ⎞⎟
x
.
⎝ 3x ⎠ x∈[0,1]
A fost calculată anterior media M(X)=m=3/4. Variabila abatere este :
50 Eroare! Legătură incorectă.

3 x − 3 / 4⎞
(X − ) : ⎛⎜ 2 ⎟
4 ⎝ 3x ⎠ x∈[0,1]
Observăm că M(X-3/4)=0 iar abaterea absolută medie va fi :
1
⎛ 3⎞
M⎜⎜ X − ⎟⎟ = ∫ x − 3 / 4 ⋅ 3x 2 dx
⎝ 4⎠ 0

⎧ 3 3
⎪x − 4 , dacă x ≥ 4
x − 3/ 4 = ⎨
3 3
⎪ − x , dacă x <
⎩4 4
3/ 4 1
⎛ 3⎞
Deci : M⎜⎜ X − ⎟⎟ = 3 ∫ − ( x − 3 / 4) x dx + 3 ∫ ( x − 3 / 4) x 2 dx = 0.1582
2

⎝ 4⎠ 0 3/ 4

4.2.2.Dispersia. Abaterea medie pătratică.


Abaterea absolută medie este mai greu de calculat din cauza valorilor absolute, motiv
pentru care în practică se foloseşte mai rar. În locul ei se utilizează dispersia.
Fie o v.a. X cu variabila abatere (X-m) şi pătratul ei (X-m)2 , unde m=M(X).

Se numeşte dispersia variabilei X , numărul D(X) dat de :


D(X) = 2 = M((X-m)2) (4.12)

Deci :

⎧n (4.13)
⎪⎪∑ ( x i − m) p i , în cazul discret
2

D(X) = σ 2 = ⎨ bi =1
⎪ ( x − m) 2 f ( x )dx, în cazul continuu
⎪⎩∫a

Teoremă : Dispersia este egală cu diferenţa dintre momentul de ordinul II şi pătratul


momentului de ordinul I (mediei), adică :
D(X) = M (X 2 ) − [M (X )] = M 2 − m 2 (4.14)
2

Pentru demonstraţie plecăm de la definiţia dispersiei :

D(X) = M[(X-m)2] = M(X2-2mX +x2) = M(X2) –2mM(X) + m2 = M2 – m2

Proprietăţi :
Eroare! Legătură incorectă. 51

1. D(0) = 0 , D(c) = 0, c-constantă


2. D(X)  0 ,  X
3. D(X Y) = D(X) +D(Y) dacă X şi Y sunt independente
4. D(cX) = c2D(X) (c-constantă)
5. D(c+X) = D(X)

Demonstraţiile fiind simple, rămân la discreţia cititorului, pentru o mai bună fixare a
cunoştinţelor. Totodată, reţinem :
a. Dacă  şi  sunt constante iar Y= X+ , atunci : D(Y)= 2D(X)
b. Dacă  i (i=1,n) sunt constante iar Xi (i=1,n), v.a.d. independente două câte două,
atunci : D( 1X1+ … +  nXn) =(  1)2 D(X1) + … + ( n )2 D(Xn)
⎛ n ⎞ n
Sau : D⎜ ∑ λ i X i ⎟ = ∑ λ2i D(X i )
⎝ 1 ⎠ 1
Prin definiţie, rădăcina pătrată a dispersiei se numeşte abatere medie pătratică ().
Deci, D(X) = σ şi D(X) = 2. Abaterea  are aceeaşi dimensiune (unitate de măsură) ca

şi variabila aleatoare.
Exemple :

1) Pentru v.a. continuă X : ⎛⎜ 2 ⎞⎟


x
⎝ 3x ⎠ x∈[0,1]
Avem M2=3/5 şi m=3/4 iar m2=9/16. Rezultă D(X)= M2-m2 = 3/80 = 0,0375 şi
σ = 0,0375 ≅ 0,19365

2) Să se calculeze dispersia v.a.d. având tabloul de distribuţie : X : ⎛⎜ − 1 3 8 ⎞



⎝ 0,1 0,7 0,2 ⎠
− 4,6 0,6 4,4 ⎞
Cunoaştem că m=3,6 şi (X − 3.6) : ⎛⎜ ⎟ , deci :
⎝ 0,1 0,7 0,2 ⎠

(X − 3.6) 2 : ⎛⎜
21,16 0,36 19,36 ⎞
⎝ 0,1 0,7 0,2 ⎟⎠

Rezultă : D(X) = M[(X-3,6)2] = 21,16 0,1 + 0,36 0,7 + 19,36 0,2 = 6,24
(Sau calculăm : M2(X)=M(X2)=19,2 şi apoi D(X)= M2-m2=19,2-12,96=6,24)

4.2.3.Momente centrate (medii centrate). Covarianţa.

Se numeşte moment centrat sau medie centrată de ordinul r numărul  r, egal cu


momentul de ordinul r al variabilei abatere :
52 Eroare! Legătură incorectă.

[
μ r = M r (X − m ) = M (X − m )
r
] (4.15)

Deci :

⎧ n
⎪⎪ ∑ ( x i − m) p i ,
r
în cazul discret
μ r (X) = ⎨ b i =1 (4.16)
⎪ ( x − m) r f ( x )dx, în cazul continuu
⎪⎩∫a

Între momentele centrate şi cele necentrate au loc relaţiile :


r (4.17)
μ r = ∑ (−1) k C kr M r − k M 1k , r > k , M 1 = m
k =0

care se obţin din (x-m)r folosind binomul lui Newton şi proprietăţile mediei. În
particular :
μ 0 = 1, μ 1 = 0, μ 2 = D(X), μ 3 = M 3 − 2M 1 M 2 + 2M 13 (4.18)

Definiţie : Se numeşte covarianţa variabilelor X şi Y, numărul :


cov(X, Y) = M[(X − M (X) )(Y − M (Y ) )] (4.19)
ce reprezintă momentul centrat mixt al celor două variabile aleatoare.

Se pot demonstra uşor relaţiile utile :

cov(X, Y) = M (XY ) − M (X)M (Y ) (4.20)


D(X Y) = D(X) + D(Y)  2cov(X;Y) ;  X;Y (4.21)
cov (X;Y) = 0 dacă X,Y sunt independente (4.22)

4.2.4.Normata unei variabile aleatoare.

Fie X o v.a. cu media M(X)=m şi abaterea medie pătratică  = ⌦ D(X). Se numeşte


X−m
normata v.a. X, variabila Z = , având proprietăţile : M(Z) = 0, D(Z) = 1.
σ
1 1 1
Într-adevăr : M( Z) = M ( X − m ) = ( M ( X ) − m) = ( m − m ) = 0
σ σ σ
1 1 D( X )
D( Z) = D( X − m ) = 2 D( X ) − 0 = =1
σ 2
σ D( X )
Exemplu : Să se determine normata v.a.d a cărei tablou de distribuţie este :
Eroare! Legătură incorectă. 53

X : ⎛⎜ −
0,
1 3
1 0,7 0
8 ⎞
,2 ⎟⎠

Avem calculate : M(X)=m=3,6 , σ = D(X) = M 2 − m 2 = 6,24

x − 3,6
Deci : z = , având tabloul de distribuţie :
6,24

⎛ 4,6 0,6 4,4 ⎞


⎜− − ⎟
Z:⎜ 6,24 6,24 6,24 ⎟
⎜ 0,1 0,7 0,2 ⎟⎠

Prin calcul deducem că M(z)=0 şi D(z)=1.

4.3.Caracteristici care dau informaţii privind forma distribuţiei


Se consideră două caracteristici numerice care dau informaţii asupra curbei pe care
sunt situate punctele (xi, pi) , i=1,n , în cazul discret, respectiv (x, f(x)), x [a, b] în cazul
continuu.
1) Simetria şi asimetria . O curbă plană de ecuaţie y=f(x) este simetrică faţă de o
valoare m dacă f(m-x) = f(m+x), adică punctele curbei, simetrice faţă de
dreapta x=m, au ordonatele egale. În caz contrar, curba este asimetrică.
Asimetria se măsoară prin coeficienţii de asimetrie şi anume :

- coeficientul lui Pearson :

M(X) − M 0 (X) m − M0 (4.23)


α1 = =
D( X ) σ

- coeficientul lui Fischer :

α2 =
[
M (X − M (X) )
3
]= μ 3
(4.24)
( D( X ) )
3
σ 3

2) Boltirea (turtirea) este caracterizată de coeficientul de boltire sau aplatizare


(coeficientul lui Fischer):

β=
[
M (X − M(X ))
4
μ
= 44
] (4.25)
D (X )
2
σ

Numim excesul distribuţiei :


54 Eroare! Legătură incorectă.

E = β−3 (4.26)
Dacă E  3 (  3) distribuţia se numeşte de tip leptokurtic iar dacă E  3 (  3)
distribuţia este de tip platykurtic.

De exemplu, pentru distribuţia normală (aşa cum se va vedea ulterior) avem  =3 şi


E=0 iar pentru distribuţia binomială (Bernoulli) se obţine  = 3 + (1-6pq)/ npq şi
observăm că dacă n  (E 0), adică distribuţia binomială tinde către o distribuţie
normală când excesul ei tinde la zero, respectiv n→∞. (La fel, α2→0 când n→∞ şi pentru
o distribuţie normală α2=0).

4.4.Corelaţie şi regresie
Fie { ,K ,P} un câmp borelian de probabilitate şi X,Y două v.a. definite pe acest
câmp. Notăm M(X)=m1 şi M(Y)=m2.

Se numeşte corelaţie sau covarianţă a variabilelor X şi Y, valoarea


cov(X, Y) = M[(X − m 1 )(Y − m 2 )] (4.27)

Se verifică uşor că :

Cov(aX,bY)=a b cov(X,Y), a şi b constante


Cov(X,Y)=cov(Y,X)

Se numeşte coeficient de corelaţie raportul (notat cu  sau r) :

cov(X, Y) (4.28)
ρ(X, Y) =
D( X ) ⋅ D( Y )

Evident :  (X,Y)= (Y,X)


Dacă v.a. sunt discrete şi pij=P(X=xi, Y=yj), i,j∈N, atunci din (4.27) şi din (4.28)
rezultă :
∞ ∞
(4.29)
∑∑ (x
i =1 j=1
i − m 1 )( y j − m 2 )p ij
ρ(X, Y) =
D( X ) ⋅ D( Y )

Dacă v.a. X şi Y sunt continue şi au densitatea de repartiţie bidimensională f(x,y)


atunci deducem formula :
Eroare! Legătură incorectă. 55

1
∞ ∞ (4.30)
ρ(X, Y) =
D( X ) D( Y )

− ∞− ∞
∫ (x − m1 )( y − m 2 )f (x, y)dxdy
Coeficientul de corelaţie dat de (4.28) se poate scrie şi sub forma :
M (XY) − M (X)M (Y) (4.31)
ρ(X, Y) = ,
D( X ) D( Y )

având în vedere că cov(X,Y)=M(XY)-M(X)M(Y).

4.4.1.Proprietăţile coeficientului de corelaţie :


a) Dacă X, Y sunt v.a. independente atunci  (X,Y)=0. Reciproca nu este adevărată.
(Se aplică : M(XY)=M(X)M(Y)).
V.a. X şi Y sunt necorelate dacă M2(X) şi M2(Y) sunt finite şi M(XY)=M(X)M(Y).
Dacă în plus M(XY)=0, atunci v.a. X şi Y se numesc ortogonale.
b) Pentru X şi Y ale căror valori medii există, avem :
 2(X,Y)≤1 (4.32)
Relaţia se deduce aplicând inegalitatea lui Schwarz :

[ ] [
M[(X − m1 )(Y − m 2 )] ≤ M (X − m1 ) M (Y − m 2 ) = D(X)D(Y)
2 2
] (4.33)

Apoi, din (4.27), (4.28) şi (4.33) rezultă (4.32).


De asemenea, observăm că :

ρ(X, X) =
[
M (X − m 1 )
=1
2
] (4.34)
D( X )

ρ(X,−X) =
[
M − (X − m 1 )
=1
2
] (4.35)
D( X )
c) Între v.a. X şi Y există o relaţie liniară dacă şi numai dacă  2(X,Y)=1.
Pentru demonstraţie, să presupunem că între v.a. X şi Y există o relaţie liniară de
forma Y=aX+b ; a≠0, b – constante. Avem : m2=am1+b şi în baza formulei (4.28) şi a
relaţiei (4.27) obţinem :

ρ(X, Y) =
M[(X − m 1 )(aX + b − am1 − b )]
=
[
M a (X − m 1 )
2

, adică :
]
D(X) ⋅ D(aX + b) a D( X )

a ⎧− 1, a < 0 ; ρ 2 (X, Y) = 1
ρ(X, Y) = =⎨
a ⎩ 1, a > 0

Reciproc, considerând  2=1 şi v.a. :


56 Eroare! Legătură incorectă.

X − m1 Y − m2
u= şi v = ,
D( X ) D( Y )

observăm că :

[
M (u ± v )
2
] =
[
M (X − m 1 )
+
2
]
M (Y − m 2 )
±2
[
M (uv)
2
]
D( X ) D( Y ) D( X ) D ( Y )

M (uv) = ρ(X, Y) = m1 ,

[ ]
adică : M (u ± v ) = 2 ± 2(m 1) = 0 şi u  v=0 aproape peste tot în  . Înlocuind u şi v
2

aici, deducem :
m 1 D( Y ) D( Y )
Y = M (Y) ± m X,
D( X ) D( X )

care arată că între Y şi X există o relaţie liniară.

4.4.2.Funcţia de regresie
Considerăm un vector aleator n-dimensional X=(X1,X2,…,Xn) şi funcţia de repartiţie
condiţionată a v.a. Xn de variabilele X1,…,Xn-1 : F(xn x1,…,xn-1).

Se numeşte funcţie de regresie a v.a. Xn faţă de v.a. X1,…,Xn-1, valoarea medie


M(Xn X1,…,Xn-1), considerată ca funcţie de X1,…,Xn-1.

Reţinem că dacă X este v.a.d. care ia valorile xi (i I) cu probabilităţile pi=P(X=xi),


A este un eveniment cu P(A)
0, iar seria ∑ x P( X = x
i∈I
i i A) este absolut convergentă,

atunci :

M (X A) =∑ x i P(X = x i A) (4.36)
i∈I

se numeşte valoare medie condiţionată a variabilei X de evenimentul A.

Se demonstrează că dacă {An}n N este un sistem complet de evenimente, iar X este o


v.a.d. a cărei valoarea medie există, atunci :

∞ (4.37)
M ( X) = ∑ P( A n ) M ( X A n )
n =1
Eroare! Legătură incorectă. 57

În particular, dacă valoarea medie condiţionată ce defineşte funcţia de regresie este


de forma :

M(Xn X1,…,Xn-1)=a0+a1X1+…+an-1Xn-1, (4.38)


atunci regresia este liniară, iar coeficienţii a1, …, an-1 se numesc coeficienţi de regresie
(modelul regresiei multiple).

Să considerăm un vector aleator bidimensional : X=(X1,X2). Au loc proprietăţile


(valabile şi pentru vectori n-dimensionali) :
1) Dacă X1 sau X2 sunt constante, atunci :
cov(X 1 , X 2 ) = ρ(X 1 , X 2 ) = 0 (4.39)
2) Dacă funcţia de regresie a v.a. X2 faţă X1 este liniară, adică M(X2/X1) = a0 + a1X1
(modelul regresiei simple), atunci :

σ2 D(X 1 X 2 ) cov(X 1 , X 2 ) (4.40)


a 1 = ρ( X 1 , X 2 ) =ρ =
σ1 D( X 1 ) D( X 1 )

D( X 1 X 2 ) (4.41)
a 0 = M (X 2 ) − a 1 M (X 1 ) = M (X 2 ) − ρ M(X 1 )
D( X 1 )
De aici, rezultă că dacă :
M(X2 X1)=a0+a1X1 şi M(X1 X2)=b0+b1X2,
atunci :
σ2 (4.42)
M ( X 2 X 1 ) − M ( X 2 ) = ρ( X 1 , X 2 ) [X 1 − M (X 1 )]
σ1

σ1 (4.43)
M ( X 1 X 2 ) − M ( X 1 ) = ρ( X 1 , X 2 ) [X 2 − M (X 2 )]
σ2

1 şi 2 fiind D(X 1 ) şi respectiv D(X 2 ) (abaterile medii pătratice).

Dreptele (4.42) şi (4.43) se intersectează în punctul de coordonate (M(X1),M(X2)).


Independent de tipul regresiei, dreptele :
σ2 (4.44)
y − M ( X 2 ) = ρ( X 1 , X 2 ) [ y − M (X 1 )]
σ1

σ1 (4.45)
x − M ( X 1 ) = ρ( X 1 , X 2 ) [ y − M (X 2 )] ,
σ2
58 Eroare! Legătură incorectă.

σ2 σ
se numesc drepte de regresie, iar coeficienţii ρ şi ρ 1 se numesc coeficienţi de
σ1 σ2
regresie liniară. Ecuaţia (4.44) reprezintă dreapta de regresie a lui X2 faţă de X1, iar
ecuaţia (4.45) reprezintă dreapta de regresie a lui X1 faţă de X2. În sens geometric, a1 este
panta dreptei de regresie (sau de estimare), în unităţi ale abaterii standard. În calculul
corelaţiei, coeficientul a1 arată cu cât se modifică variabila X2 când X1 se modifică cu o
unitate, adică răspunde tocmai la problema regresiei.
În cazul corelaţiei directe, a1>0 iar în cazul corelaţiei inverse a1<0.
Zicem că o corelaţie este directă sau pozitivă când variaţiile a două fenomene se
produc în acelaşi sens, iar în caz contrar corelaţia este inversă sau negativă. Parametrul a0
(termenul liber) de regulă nu are o semnificaţie independentă, ci una de calcul, putând
avea sens negativ.
Funcţia de modelare liniară îşi găseşte aplicaţie şi atunci când variaţiile variabilelor
nu urmează legea progresiei aritmetice dar ele sunt mici şi deci curba descrisă este foarte
aproape de o linie dreaptă. Multe legături statistice se înscriu pe curbe diferite, definite de
ecuaţii de regresie neliniare, cum ar fi :
y * = a 0 + a 1 x + a 2 x 2 (legătură de tip parabolic)

1
y* = a 0 + a1 (legătură de tip hiperbolic)
x
y * = a 0 x a1 (legătură de tip funcţie putere)

Am notat y*=M(Y/X) – media condiţionată teoretică a lui Y în raport cu X.


Funcţia putere implică un ritm de variaţie constant, de unde şi valabilitatea ei numai
pentru fenomene cu evoluţie continuă, neadmiţând nivel de saturaţie. Aproximarea
exponenţială, ca şi cea liniară, apare potrivită în cazul intervalelor de variaţie nu prea
mari. Ea este recomandată şi atunci când nu se cunoaşte forma dependenţei într-un mod
mai precis.
Prin logaritmare, funcţia putere devine liniară.
În cazul când v.a. sunt independente, linia de regresie a variabilei Y în raport cu X
este o paralelă la Ox, iar linia de regresie a lui X în funcţie de Y este o paralelă la Oy.

4.5. Probleme rezolvate


1) Dacă X este o variabilă aleatoare continuă şi pozitivă cu M(X) finită, să se arate
că are loc relaţia (inegalitatea lui Markov) :
Eroare! Legătură incorectă. 59

1
P(X ≥ λM(X) ) ≤ , (∀)λ > 1 .
λ
Soluţie :
∞ λm ∞ ∞ ∞
m = M (X) = ∫ xf ( x )dx = ∫ xf (x )dx + ∫ xf (x )dx ≥ ∫ xf (x )dx ≥ λm ∫ f (x )dx = λm[1 − F(λm)]
0 0 λm λm λm

De aici,
1 1
1 − F(λm) = 1 − P(X < λm) ≤ sau P(X ≥ λm) ≤
λ λ
2) Se consideră funcţia :
a sin x , x ∈ [0, π]
f ( x ) = ⎧⎨
⎩0, în afara intervalului
a) Să se determine constanta reală a astfel ca f să fie densitatea de probabilitate a
unei v.a.
b) Să se determine funcţia de repartiţie corespunzătoare
⎛ π⎞
c) Dacă X are această repartiţie, să se calculeze P⎜ 0 ≤ X < ⎟
⎝ 6⎠
d) Să se calculeze Me(X)
e) Să se calculeze M(X) şi o limită superioară pentru P(X 5M(X)),
Soluţie :
∞ π
1
a)
−∞
∫ f (x )dx = a ∫ sin xdx = 2a = 1 ⇒ a = 2
0

x x
F( x ) = ∫ f (u )du, f(u) ≥ 0, deci : F(x) = ∫ f(u)du,
−∞ 0
x
1 1 x
F( x ) =
20∫ sin udu = (1 − cos x ) = sin 2 , dacă x ∈ (0, π]
2 2
π x π
1
F( x ) = ∫ f (u )du + ∫ f (u )du = ∫ sin udu = 1, dacă x > π
0 π
20
b) Deci :
⎧ 0 , x≤0
⎪ x
F( x ) = ⎨sin 2 , x ∈ (0, π]
⎪ 2
⎩ 1 , x>π
60 Eroare! Legătură incorectă.

⎛ π⎞ 1 6
2− 3
c) P⎜ 0 ≤ X < ⎟ = ∫ sin udu = şi reprezintă aria cuprinsă între graficul
⎝ 6⎠ 2 0 4

π
funcţiei densitate de probabilitate, axa Ox şi dreptele x=0, x = . (fig.4.3)
6

f(x) F(x)

1
2

π π π
0  x 0  x
6 2 2

Fig. 4.3
x 1 x π π
d) F[Me(X)]=1/2 conduce la sin 2 = , = , x = . Din punct de vedere
2 2 2 4 2
geometric, mediana este abscisa punctului prin care trece paralela la Oy care
împarte în două părţi egale aria mărginită de y=f(x) şi axa Ox.
+∞
1
π
1⎛ π
π
⎞ π
e) M (X) = ∫ xf ( x )dx = ∫ x sin xdx = ⎜ − x cos x 0 + ∫ cos xdx ⎟⎟ =

−∞
20 2⎝ 0 ⎠ 2
Aplicând inegalitatea lui Markov pentru  =5 : P(X 5M(X)) = P(X 5 /2) 1/5
1 −x
3) Se dă funcţia f(x) = e , x ∈ R . Să se arate că este o densitate de repartiţie.
2
Dacă X este v.a. urmând această repartiţie, să se găsească M0(X) şi D(X).
Soluţie : Se observă că f(-x) = f(x), ( )x R .
∞ ∞
1 −x
∫−∞f (x )dx = 2∫0 2 e dx = −e
−x ∞
f ( x ) > 0, (∀)x ∈ R şi 0 =1

Funcţia f(x) dată este densitatea de repartiţie Laplace, deci X este o v.a. Laplace
(fig.4.4). Pe grafic se observă că pentru x=0 obţinem valoarea cea mai probabilă (funcţia
modală sau dominanta) : M0(X)=1/2
f(x)
1
2

x
Eroare! Legătură incorectă. 61

Fig. 4.4
Pentru calculul dispersiei aplicăm formula : D(X)=M2(X)-M12(X)
∞ ∞
1
M 1 (X) = ∫ xf ( x )dx = ∫ xe dx = L = 0
−x

−∞
2 −∞
∞ ∞ ∞
1
M 2 (X) = ∫ x f ( x )dx = ∫ x 2 e dx = ∫ x 2 e dx = L = 2
2 −x −x

−∞
2 −∞ 0

Deci : D(X)=2.
(
4) Fie {E,K ,P} un câmp de probabilitate cu E = A, A (modelează o experienţă )
Bernoulli) şi P(A)=p (0,1). Se repetă experienţa de o infinitate de ori şi i se
asociază v.a. X ce reprezintă numărul de eşecuri obţinute până la producerea
evenimentului A. Să se scrie distribuţia v.a. A şi să se afle M(X) şi D(X).
Soluţie : Avem o repartiţie geometrică. Valorile lui X sunt : 0,1, … k, … Când X ia
valoarea k înseamnă că s-a produs de k ori contrariul lui A şi în final evenimentul A,
adică :
P(X = k ) = P(A I K I A I A) = q k p ; q = 1 − p
Tabloul de repartiţie al lui X va fi deci :
L⎞
X : ⎛⎜
0 1 L k
⎝ p pq L pq
k
L⎟⎠
∞ ∞
1
Avem ∑ pq k = p∑ q k = p
k =0 k =0 1− q
= 1 (s-a folosit suma progresiei geometrice conver-

∞ ∞ ∞
q
gente, cu raţia q<1). Apoi, M (X) = ∑ kpq k = p∑ kq k = şi M (X 2 ) = ∑ k 2 pq k =
k =0 k =1 p k =0


pq (1 + q ) q (1 + q )
= p∑ k 2 q k = =
k =0 p3 p2
(În calcule s-a folosit seria geometrică şi derivata sa, cu raţia q (0,1))
q(1 + q) q 2 q
Deci, D(X)=M(X2)-[M(X)]2= − =
p2 p2 p2
62 Eroare! Legătură incorectă.

5) Dacă X este v.a. din problema precedentă, să se demonstreze :


P(X k+j/X k) = P(X j) ,  j,k N
Soluţie : Notăm cu A evenimentul X k+j şi cu B evenimentul X k. Rezultă :
P(A ∩ B) P[(X ≥ k ) ∩ (X ≥ k + j)] P(X ≥ k + j) 1 − P(X < k + j) 1 − F(k + j)
P(A / B) = = = = =
P(B) P( X ≥ k ) P( X ≥ k ) 1 − P( X < k ) 1 − F(k )
unde F este funcţia de repartiţie a lui X.
k + j−1
1 − q k+ j k −1
1− qk
F(k + j) = ∑ qip = p
i =0 1− q
şi F(k ) = ∑ q i p = p
i =0 1− q

1 − q − p + pq k + j pq k q j
P(A / B) = = =qj
1 − q − p + pq k
pq k

Membrul drept al relaţiei va fi :


j−1
1− qj
P(X ≥ j) = 1 − P(X < j) = 1 − F( j) = 1 − ∑ q p = 1 − p
i
= q j , deci are loc egalitatea
i=0 1− q
din enunţ.
Notă : Aceasta se numeşte proprietatea lipsei de memorie a repartiţiei geometrice deoarece
evenimentul B este „trecut” faţă de evenimentul A şi este singura repartiţie discretă cu această proprietate.
Se poate demonstra că dacă o v.a.d. are proprietatea amintită, atunci ea urmează obligatoriu repartiţia
geometrică.
Eroare! Legătură incorectă. 63

Capitolul 5 Funcţie caracteristică şi funcţie generatoare

5.1. Definiţia funcţiei caracteristice. Proprietăţi.

( )
Fie X şi Y două v.a. reale. Variabila Z=X+iY i = − 1 se numeşte v.a. complexă.
Prin analogie cu numerele complexe, variabilei Z îi putem ataşa biunivoc punctul aleator
(X,Y) – imaginea lui.

Prin definiţie M(Z)=M(X)+iM(Y).

Expresia :
e itX = cos tX + i sin tX, t ∈ R (5.1)

este o v.a. complexă având modulul egal cu unitatea :

e itX = cos 2 tX + sin 2 tX = 1 , deci eitX este mărginită. Valoarea mediei a acestei v.a.

există şi este unic determinată de funcţia de repartiţie F(X).

Prin definiţie, valoarea medie a v.a. eitX se numeşte funcţie caracteristică a v.a. X,
adică :
⎧∑ p k e itx k , în cazul discret
⎪⎪ k∈I
ϕ( t ) = M (e itX ) = ⎨ ∞ (5.2)
⎪ ∫ e f ( x )dx , în cazul continuu
itx

⎪⎩− ∞

Reţinem că fiecărei v.a. îi corespunde o funcţie de repartiţie F şi o funcţie


caracteristică  , care este continuă în raport cu t R şi ia valori complexe. Funcţia  (t)
este un instrument de studiu al v.a. mai uşor de folosit decât funcţia de repartiţie.

Proprietăţi (fără demonstraţie) :

1)  (0)=1 ;   (t)  1, ( ) t R
2)  (t) este uniform continuă pe R
3) ϕ(− t ) = ϕ( t ) (conjugata)

4) Dacă Y=aX+b ; a,b R atunci : ϕ Y ( t ) = e itb ϕ X (at )


64 Eroare! Legătură incorectă.

5) Dacă X şi Y sunt independente, atunci :


 X+Y(t)=  X(t)⋅ Y(t)
Proprietatea de mai sus se poate generaliza pentru n variabile
6) Dacă X admite M( X n) ; n>0, atunci :

ϕ ( n ) (0)
ϕ (n ) (t) = i n ∫ x e dF(x) şi M n (X) = M(X ) =
n itx n

−∞ in
(n)
unde  înseamnă derivata de ordinul n a lui  .
7) Dacă ( )n N, ( )M( X n), atunci  (t) se poate dezvolta în serie de puteri
:

(it ) k
ϕ( t ) = ∑ M (X k )
k = 0 k!

8) Dacă  (t) este reală, atunci : 1- (2t) 4[1- (t)], ( )t R (teorema lui
Raikov)
9) ( )t, h R are loc relaţia :
  (t)-  (t+h) 2 2 (0)[  (0)-Re (h)]
unde Re (h) este partea reală a lui  (h).

Observaţie :
Odată cu  (t) se poate considera şi ln (t)=  (t) care se numeşte a doua funcţie caracteristică.

5.2. Funcţie generatoare

⎛x ⎞
Fie v.a.d. X cu tabloul de repartiţie X : ⎜ i ⎟
⎝ p i ⎠ i =1, n

Se numeşte funcţie generatoare ataşată v.a. X, valoarea medie a variabilei etX, adică :
(5.3)
g( t ) = M (e tX ) = ∑ p i e tx i
n

i =1

Dacă X este v.a. continuă cu tabloul X : ⎛⎜ f (xx ) ⎞⎟ , atunci :


⎝ ⎠ x∈[ a , b ]
b (5.4)
g ( t ) = ∫ e tx f ( x )dx
a

Avem :
Eroare! Legătură incorectă. 65

⎧n k (5.5)
⎪⎪ ∑ x i p i e tx i
, în cazul discret
g ( k ) ( t ) = ⎨ bi =1 ,
⎪ x k e tx f ( x )dx , în cazul continuu
⎪⎩∫a
Iar pentru t=0 : g(k)(0)=Mk(X)=M(Xk), deci funcţia generatoare se poate utiliza în
calculul momentelor de diferite ordine, prin derivare în t=0.
Exemple : Fie X o v.a.d. urmând o lege binomială de distribuţie :

X : ⎛⎜ k k n − k ⎞⎟
k
⎝ n q ⎠ k = 0, n
C p

Avem : g( t ) = M (e tX ) = ∑ e tk C kn p k q n − k = ∑ C kn (e t p ) q n − k = (pe t + q )
n n
k n

k =0 k =0

Apoi :
g’(t)=npet(pet+q)n-1 ; g’(0)=np=M1(X)=M(X)
g”(t)=np[et(pet+q)n-1+(n-1)pe2t(pet+q)n-2] şi g”(0)=np(np+q)=M2(X)=M(X2) etc.

5.3. Teorema de inversiune şi teorema de unicitate


Fie v.a. X cu funcţia de repartiţie F(x) şi funcţia caracteristică  (t).

Teorema 1 : Dacă F(X) este continuă în x1 şi x2 atunci :


1
λ − itx 1
e − e − itx 2 (5.6)
F( x 1 ) − F( x 2 ) = lim ∫ ϕ( t )dt
2π λ → ∞ − λ it

Această formulă se numeşte de inversiune deoarece permite determinarea funcţiei de


repartiţie când se cunoaşte funcţia caracteristică.
t2

Exemplu : Se cere F(x) pentru v.a. X, ştiind că ϕ( t ) = e 2
. Avem :
+∞ t2 +∞ t2
1 1 − e − itx − 2 1 1 − cos tx + i sin tx − 2
2π −∫∞ it 2π −∫∞
F( x ) − F(0) = e dt = e dt =
it
+∞ t2 +∞ t2 +∞ t2
1 1 − cos tx − 2 1 sin tx − 2 1 sin tx − 2
2π −∫∞ 2π −∫∞ t π ∫0 t
e dt + e dt = e dt
it
(Prima integrală este nulă pentru că funcţia de integrat este impară pe un interval
simetric iar pentru a doua integrală observăm că funcţia de integrat este pară).
Apoi avem :
1


t2 (5.7)
F′( x ) = ∫ cos tx ⋅ e 2 dt,
π0
66 Eroare! Legătură incorectă.

⎛ ⎞
2
t

Pe care o integrăm prin părţi ⎜ f = e 2 , g ′ = cos tx ⎟
⎜ ⎟
⎝ ⎠
t2
− sin tx
Rezultă : f ' = − te 2
,g = .
x
t2 ∞ t2
1 sin tx − 2 ∞ 1 −
Deci : F' ( x ) =
π x
e 0 + ∫
πx 0
t sin tx ⋅e 2 dt

Primul termen tinde la zero, astfel încât :

1 −
∞ t2 (5.8)
F' ( x ) = ∫
πx 0
t sin tx ⋅e 2 dt

Derivând (5.7) şi ţinând seama de (5.8) obţinem :


∞ t2
1 −
F' ' ( x ) = ∫ t sin tx ⋅e 2 dt = − xF' ( x )
π0
F' ' x2
De unde : = − x sau ln F' ( x ) = − + ln C (prin integrare)
F' 2
De aici,
t2 x t2
− −
F' ( x ) = C ⋅ e 2
şi F( x ) = C ∫ e 2
dt + C1
−∞
1
lim F( x ) = 0 ⇒ C1 = 0 şi lim F( x ) = 1 ⇒ C 2π = 1, C =
x → −∞ x →∞

x t2
1 −
În fine, F( x ) =

∫e
−∞
2
dt

Teorema 2 (de unicitate) : Funcţia caracteristică  determină în mod unic funcţia de


repartiţie F.

Demonstrarea celor două teoreme este cuprinsă în cărţile de specialitate din


bibliografia prezentei lucrări.

5.4. Probleme rezolvate


1) Să se calculeze funcţia caracteristică  (t), a repartiţiei Cauchy care are densitatea
de repartiţie :
1
f (x) = ,x∈R
π(1 + x 2 )
Soluţie :
Având o repartiţie continuă, obţinem :
Eroare! Legătură incorectă. 67


1 dx
ϕ( t ) = ∫ e itx ,
π −∞ 1 + x 2
care se calculează printr-o metodă din teoria funcţiilor complexe, utilizând funcţia
e itz
complexă H(z) = pe care o vom integra, pentru t>0, pe conturul () din fig.5.1,
1+ z2
unde R>1 astfel ca punctul (0,1) asociat lui i să intre în domeniu.
Utilizând reziduul lui H, avem :
1
2πi (∫Γ )
RezH = H(z)dz

(!
t>0
i

-R 0 R

Fig.5.1

1 ⎛⎜ itx dx ⎞
R
dz ⎟
Deci : RezH = ∫ e
2πi ⎜⎝ − R 1 + x 2
+ ∫ e itz
1+ z2 ⎟
(γ) ⎠
itz
dz e πR
Dar : ∫ e itz
≤ πR ≤ → 0 când R  .
γ 1+ z 2
1+ R 2
1+ R2

Trecând la limită pentru R  obţinem în prima integrală :



dx (z − i)e itz e −t
∫ e 1 + x 2 = lim =
itx
,
z →i ( z − i)(z + i ) 2i
−∞

deci : RezH⋅2 i  e-t şi



1 dx
ϕ( t ) = ∫ e itx
π −∞ 1 + x 2
= e −t , t > 0

Pentru t<0, considerăm conturul simetric şi obţinem  (t)=et, aşa că în final :


 (t)=e- t , t R.
2) Fie X k , k = 1, n , v.a. independente în ansamblu, urmând o repartiţie Cauchy. Să
se determine repartiţia variabilei Y rezultată ca medie aritmetică a variabilelor Xk.
68 Eroare! Legătură incorectă.

Soluţie :
1 n
Avem Y = ∑ X k şi notăm cu ϕ k , k = 1, n , respectiv  funcţiile caracteristice ale
n 1
variabilelor Xk respectiv Y. Atunci :
⎛ it ⋅ 1 ∑ X k ⎞
n

⎟ = M⎛⎜ e n itX k ⎞
1

ϕ k ( t ) = ϕ( t ) = M (e ) = M⎜⎜ e 1
n

⎜∏
itY n

⎜ ⎟⎟ ⎟
⎝ ⎠ ⎝ k =1 ⎠

Cum şi variabilele e itX k sunt independente, avem:


n t
n
⎛ t ⎞ ⎡ ⎛ t ⎞⎤ − ⋅n
ϕ( t ) = ∏ ϕ k ⎜ ⎟ = ⎢ϕ⎜ ⎟⎥ = e n = e
−t

k =1 ⎝ n ⎠ ⎣ ⎝ n ⎠⎦
Funcţia caracteristică determină unic repartiţia, aşa că Y urmează aceeaşi repartiţie
Cauchy.
3) Să se afle densitatea de repartiţie a variabilei X cu funcţia caracteristică
3 2
ϕ( t ) = e − a t
, a>0, folosind teorema de inversiune.
Soluţie :
Notăm cu F funcţia de repartiţie a lui X şi x1<x2 două puncte de continuitate ale lui F.
Conform teoremei de inversiune,

1 e − itX1 − e − itX 2
2π −∫∞
F( x 2 ) − F( x 1 ) = ϕ( t )dt
it
Alegem x1=0 şi x2=x, deci :
∞ ∞
1 1 − e −itx 1 1 − e −itx − a 2 t 2
2π −∫∞ it 2π −∫∞ it
F( x ) − F(0) = ϕ( t ) dt = ⋅e dt =

∞ ∞ ∞
1 1 − cos tx + i sin tx −a 2 t 2 1 1 − cos tx − a 2 t 2 1 sin tx − a 2 t 2
= ∫
2π − ∞ it
e dt = ∫
2π − ∞ it
e dt +
2π −∫∞ t
e dt = I 1 + I 2

Funcţia din I1 este impară iar cea din I2 este pară în raport cu t, deci : I1=0 şi
∞ ∞
1 sin tx − a 2 t 2 1 sin tx − a 2 t 2
I2 = 2 ⋅ ∫
2π 0 t
e dt şi F( x ) − F(0) = ∫
π0 t
e dt .

Derivăm în raport cu x :

1

2 2
F' ( x ) = cos tx ⋅ e − a t dt şi integrăm prin părţi :
π0
Eroare! Legătură incorectă. 69

2 2 2 2 sin tx
u = e − a t , dx=cos tx dt " du = −2 ta 2 e − a t dt şi v =
x

Rezultă :

2a 2 1
⋅ ∫ t sin tx ⋅ e − a t dt
2 2
F' ( x ) =
x π0

Apoi :

1

2 2
F′′( x ) = − t sin tx ⋅ e − a t dt (derivata lui F’ – iniţială)
π0

Deci :
2a 2 F′′ x
F′( x ) = − F′′( x ) sau = − 2 , de unde prin integrare :
x F′ a
x2
1 x2 − 2
ln F′ = − 2 ⋅ + C sau F′( x ) = ke 4 a unde k=eC (constantă).
2a 2
Determinăm pe k trecând la limită pentru x  în expresia :
x x2
− t
F( x ) = k ∫ e 4a 2
dt făcând schimbarea de variabilă u =
−∞
2a

1
lim F( x ) = 1 ⇒ 2ak ∫ e − u du = 1 ⇒ 2ak ⋅ π = 1, k =
2

x →∞
−∞ 2a π
Deci :
x2
1 −
f ( x ) = F' ( x ) = e 4a 2
(densitatea unei repartiţii normale).
2a π
70 Eroare! Legătură incorectă.

Capitolul 6 Repartiţii probabilistice clasice discrete

6.1. Repartiţia binomială sau repartiţia lui Bernoulli.


Corespunde schemei urnei cu bile revenite (valorile sale reprezintă numărul de bile
albe din cele n extrase). Tabloul acestei repartiţii (simple) va fi deci :

(6.1)
X : ⎛⎜ k k n − k ⎞⎟
k
; q = 1 − p; p, q > 0
⎝ C n p q ⎠ k = 0, n

Având repartiţie binomială de ordinul n şi parametru p, mulţimea tuturor variabilelor


aleatoare binomiale o notăm cu B(p,n).
( )
Fie Xk, k = 1, n o v.a.d. care ia valorile 1 şi 0 după cum la extragerea k apare

evenimentul A sau A = CA . Atunci Y=X1+…+Xn este o v.a.d. care ia valoarea k dacă


evenimentul A s-a produs de k ori, având o repartiţie B(p,n)
Funcţia de repartiţie a lui B(p,n) este funcţia de repartiţie a v.a.d. Y, adică :
[x ]−1
F( x ) = P({ω : Y(ω) < x}) = ∑C k
n p k q n − k , unde [x] este partea întreagă a lui x.
k =0

Deci :
⎧ 0 , x≤0
⎪ qn , x ∈ (0,1]
⎪1
⎪∑ C kn p k q n − k , x ∈ (1,2]

F( x ) = ⎨ k = 0
⎪ n −1 L L L (6.2)
⎪∑ C k p k q n − k , x ∈ (n − 1, n ]
⎪k =0 n
⎪⎩ 1 , x>n

Caracteristici mai importante :

n (6.3)
M(X) = ∑ kC kn p k q n − k = np (valoarea medie)
k =1

n
(Plecăm de la binomul lui Newton : (px + q ) n = ∑ C kn p k x k q n − k , pe care o derivăm
0

în raport cu x şi facem x=1).


D(X)=M2(X)-[M(X)]2=npq (dispersia), (6.4)

unde :
Eroare! Legătură incorectă. 71

n (6.5)
M 2 (X) = ∑ k 2 C kn p k q n − k = np + n (n − 1)p 2 (momentul de ordinul II),
k =1

Se obţine derivând de două ori binomul (px+q)n şi făcând apoi x=1.


Funcţia caracteristică este  (t)=M(eitY), adică :
n n (6.6)
ϕ( t ) = ∑ e ikt C kn p k q n − k = ∑ C kn (pe it ) k q n − k = (pe it + q) n
k =0 k =0

Utilizând funcţia caracteristică se pot determina momentele v.a. binomiale şi de


asemenea se poate demonstra că : dacă v.a. X1 şi X2 aparţin mulţimilor B(p,X1) şi
B(p,X2) atunci (X1+X2) aparţine mulţimii B(p,n1+n2).
Observaţie : În aplicaţii, în general numărul n ia valori mari (n  ) şi este dificil calculul
probabilităţilor. Pn(k)=P(Ak)=Cnkpkqn-k, aşa încât se utilizează formula lui Stirling :
1 (6.7)
n! = n n e − n 2πn e u n ≈ n n e − n 2πn ;0 < u n <
12n
Deci :

1
⎧ h 2n ⎫ (6.8
Pn (k ) = (2πnpq ) 2
exp⎨− ⎬, )
⎩ 2npq ⎭
hn
Care reprezintă valoarea asimptotică a probabilităţii Pn(k). Relaţia (6.8) are loc dacă a≤ ≤b
n
unde a şi b sunt constante.

6.2. Repartiţia multinomială (polinomială)


Corespunde urnei cu bile de mai multe culori. Fie nj bile de culoarea j, cu 1 j r şi
r nj r
n = ∑ n j , p j = P( A j ) = , ∑p j = 1 . (Aj – evenimentul extragerii bilei de culoare j).
1 n 1

Notăm B k1 , k 2 ,L, k r evenimentul care constă din obţinerea, în urma a n extrageri

repetate cu punerea în urnă a bilei extrase, a k1 bile de culoarea 1, k2 bile de culoarea 2,


etc. Deoarece ordinea extragerii bilelor nu interesează, obţinem :

n! (6.9)
Pn (k 1 , k 2 , L , k r ) = P(B k1 , k 2 ,L, k r ) = p 1k1 p k2 2 K p kr r
k 1 ! k 2 !K k r !

Repartiţia determinată de probabilităţile (6.9) se numeşte multinomială sau


polinomială. Expresia din membrul drept reprezintă termenul general al dezvoltării
polinomului (p1+…pr)n.
72 Eroare! Legătură incorectă.

Această repartiţie are multe aplicaţii în teoria fiabilităţii.


Funcţia caracteristică a repartiţiei polinomiale se obţine imediat dacă se scrie
vectorul aleator Y=X1+…Xn sub forma : Y=# 1e1+…# rer, unde e1, e2, …,er sunt vectorii
bazei (liniar independenţi) într-un spaţiu euclidian r-dimensional.
Avem :
[
ϕ( t ) = M e i ( t1α1 +Kt r α r ) = ] ∑ P (k , K , k n 1 r ) ⋅e i ( t1k1 +Kt r k r ) =
k 1 ,K, k r
, (6.10)

n!
(
p 1 e it1 )k1
(
K pre it r
) kr
= p1e ( it 1
+K+ pre it r
)
n

k 1 ,K, k r k 1 !K k r !

unde : t=t1e1+…+trer.
Valoarea medie şi dispersia vor fi :
1 ⎛ ∂ϕ ⎞⎟ (6.11)
M (α j ) = ⎜ = np j ;1 ≤ j ≤ r
i ⎜⎝ ∂t j ⎟⎠
t =0

1 ⎛ ∂ 2ϕ ⎞
[
D(α j ) = M 2 (α j ) − M (α j ) = 2 ⎜ 2 ⎟ − np j =
2
]
i ⎜⎝ ∂t j ⎟⎠ (6.12)
t =0

= n 2 p 2j + np j − np 2j − n 2 p 2j = np j (1 − p j ) = np j q j

6.3. Repartiţia binomială cu exponent negativ.

Repartiţia discretă în care valorilor n, n+1, … (n N) li se atribuie corespunzător


probabilităţile :
P− n (k ) = C nk −−11 p n q k − n ; k ≥ n , q = 1 − p (6.13)

se numeşte repartiţie binomială cu exponent negativ.

Să considerăm un câmp de probabilitate finit care constă în evenimentele A şi A , în


afara evenimentului sigur (E) şi imposibil ( ). Fie p=P(A) şi q=P( A )=1-p.
Numărul grupelor de forma AA K AA K A AA , în care ultimul element este A şi care
conţin pe A de n ori iar pe A de (k-n) ori este C nk −−11 . Probabilitatea obţinerii unei astfel de
grupe este pnqk-n. Deci probabilitatea ca A să se producă în k experienţe independente de n
ori este P− n (k ) = C nk −−11 p n q k − n .
Funcţia caracteristică, va fi :

⎛ pe it ⎞
n
(6.14)
ϕ( t ) = ⎜⎜ ⎟⎟
⎝ 1 − qe
it

Cu ajutorul acestei se obţin momentele şi dispersia :


Eroare! Legătură incorectă. 73

1 ⎛ ∂ϕ ⎞ n (6.15)
M 1 (X ) = ⎜ ⎟ =
i ⎝ ∂t ⎠ t =0 p
1 ⎛ ∂ 2ϕ ⎞ n (n + q ) (6.16)
M 2 (X) = 2 ⎜⎜ 2 ⎟⎟ =
i ⎝ ∂t ⎠ t =0 p2
……………………………………………………………………..
nq
D(X) = M 2 − M 12 = 2 (6.17)
p

6.4. Repartiţia hipergeometrică

Fie n, a, b N cu n a+b. Repartiţia hipergeometrică este o repartiţie discretă simplă,


ce corespunde unei bile nerevenite, având tabloul de repartiţie :
⎛ k ⎞ (6.18)
⎜ k n −k ⎟
X : ⎜ Ca Cb ⎟
⎜ Cn ⎟
⎝ a+b ⎠ k =0, n

în care : max(0, n-b) k min(n,a), dar pentru simplitatea scrierii se poate lua k = 0, n .
n
Având în vedere relaţia : ∑C
k =0
k
a C nb − k = C an+ b , se verifică uşor că sunt îndeplinite

condiţiile existenţei tabloului de distribuţie.


Exemplu : Se consideră un lot de 400 piese, care conţine 8% piese cu defecţiuni şi se
cercetează numărul de piese cu defecţiuni dintr-un eşantion de 10 piese. Să se identifice
legea de repartiţie a fenomenului aleator considerat.
Soluţie : Un lot de c piese conţine a piese defecte şi b piese bune (a+b=c). În acest
caz: c=400 şi a/c=0,08 , b/c=0,92. Un eşantion de n piese conţine k piese defecte şi (n-k)
piese bune. Cu cele b piese bune se pot obţine C ak C nb − k eşantioane de câte n piese, din care

k sunt defecte. Rezultă :


C an+ b Pn (k; a , b) = C ak C nb − k

recunoscând astfel o lege de repartiţie hipergeometrică.


k −k
C 32 C10
Deci: P10 (k;32,368) = 368
; k = 0,10
C10400

Repartiţia hipergeometrică joacă un rol esenţial în controlul calităţii produselor.


Cu ajutorul funcţiei generatoare :
n (6.19)
G (z) = ∑ Pn (k; a , b )z k $z$ 1
k =0
74 Eroare! Legătură incorectă.

se pot obţine valoarea medie şi dispersia :


n⋅a (6.20)
M (X) =
a+b
nab(a + b − n ) (6.21)
D( X ) =
(a + b) 2 (a + b − 1)
a b
Dacă notăm a+b=r atunci p = şi q = . În ipoteza că p şi q rămân constante iar
r r
r  avem :
lim Pn (k; a , b, ) = C kn p k q n − k = Pn (k ) (6.22)
n →∞

relaţie care arată că, atunci când numărul biletelor creşte nemărginit, Pn(k;a,b) tinde către
probabilitatea Pn(k) ce defineşte repartiţia binomială.
Acest rezultat este firesc deoarece extragerea unei bile din urnă influenţează cu atât
mai puţin compoziţia urnei cu cât numărul iniţial de bile din urnă este mai mare.

6.5. Repartiţia Poisson (Legea evenimentelor rare)


Este o repartiţie discretă numărabilă determinată de probabilităţile :
λk − λ (6.23)
P ( k; λ ) = e
k!
unde k=0,1,2,… şi   0 este un număr dat. Tabloul de distribuţie va fi deci :

⎛ k ⎞ (6.24)
X: ⎜ λk
e −λ ⎟
⎜ ⎟
⎝ k! ⎠ k = 0,1, 2...

Observaţii : 1) Dacă   1 , P(k, ) sunt descrescătoare


Dacă  =1 , P(0;1) = P(1;1) = e-1 iar celelalte valori ale lui P(k;1), k=2,3,.. sunt
descrescătoare.
Dacă   1 , repartiţia Poisson are un maxim sau două dacă  este un număr întreg.
2) Repartiţia Poisson se obţine pornind de la repartiţia binomială în care n creşte nemărginit
iar p scade corespunzător, astfel încât produsul np= să rămână constant :
n −k
n (n − 1) L (n − k + 1) λk ⎛ λ ⎞ λk −λ
lim Pn (k ) = lim ⋅ k ⎜1 − ⎟ = e ,
n →∞ n →∞ k! n ⎝ n⎠ k!
n −k
n (n − 1) L (n − k + 1) ⎛ λ⎞
deoarece : lim = 1 şi lim⎜1 − ⎟ = e −λ .
n →∞ k! n →∞
⎝ n⎠
Eroare! Legătură incorectă. 75

3) Repartiţia Poisson se mai numeşte şi Legea evenimentelor rare deoarece se întâlneşte în


cazul evenimentelor rare fiind frecvent utilizată în teoria fiabilităţii.
∞ ∞
λk
Din (6.23) deducem că ∑ P ( k; λ ) = e − λ ∑
k =0 0 k!
= e −λ ⋅ e λ = 1

Funcţia de repartiţie este :


[ x ]−1 [ x ]−1
λk − λ (6.25)
F( x ) = ∑ P( k; λ ) = ∑
k =0 k = 0 k!
e

Iar funcţia caracteristică :



λk − λ (6.26)
ϕ( t; λ ) = ∑ e ikt e = e λ (e −1)
it

k =0 k!
Cu ajutorul funcţiei caracteristice se demonstrează că suma a două variabile Poisson
este tot o variabilă Poisson. Dacă X şi Y au parametrii  şi  atunci :
it it it
ϕ( t; λ )ϕ( t; μ) = e λ ( e −1)
⋅ e μ(e −1)
= e ( λ + μ )( e −1)
= ϕ( t; λ + μ) ,
adică variabila aleatoare Poisson (X+Y) are o repartiţie Poisson cu parametrul ( + ).
Valoarea medie şi dispersia :

λk − λ ∞
λk −1 (6.27)
M (X) = ∑ k e = λe − λ ∑ =λe − λ e λ = λ
k =0 k! k =1 ( k − 1 )!

λk − λ ∞ 2

λk − λ ∞ λk − λ
M 2 (X) = ∑ k e = ∑ (k − k + k ) e = ∑ k (k − 1) e +
2

k =0 k! k =0 k! k =1 k! (6.28)

λ −λ
k
+ ∑k e = λ2 e − λ e λ + λ = λ2 + λ
k =0 k!

D( X ) = M 2 − M 2 = λ (6.29)

Aceleaşi rezultate se obţin dacă utilizăm funcţia caracteristică :


1 ⎛ ∂ϕ ⎞
M 1 (X) = ⎜ ⎟ = L = λ
i ⎝ ∂t ⎠ t = 0
1 ⎛ ∂ 2ϕ ⎞
M 2 (X) = ⎜⎜ 2 ⎟⎟ = L = λ2 + λ
i2 ⎝ ∂t ⎠ t = 0
1 ⎛ ∂ 3ϕ ⎞
M 3 (X) = 3 ⎜⎜ 3 ⎟⎟ = L = λ3 + 3λ2 + λ
i ⎝ ∂t ⎠ t = 0
Pentru momentele centrate obţinem :
μ 1 (X) = M 1 [X − M (X)] = λ − λ = 0
μ 2 (X ) = M 1 [(X − M (X )) 2 ] = M 2 (X) − [M 1 (X )] 2 = D(X) = λ
μ 3 (X) = M 1 [(X − M (X)) 3 ] = L = λ
Observăm că la o repartiţie Poisson M1(X)=  2(X)=  3(X).
76 Eroare! Legătură incorectă.

6.6. Repartiţia geometrică sau repartiţia lui Pascal

Este o distribuţie numărabilă având tabloul de distribuţie :


(6.30)
X : ⎛⎜ k −1 ⎞⎟
k
; p, q > 0, p + q =1
⎝ pq ⎠ k =1, 2,...

Se obţine :
1 q +1 (6.31)
M(X) = , M2 =
p p2
q +1 1 q (6.32)
D(X) = M 2 (X) − [M (X)] 2 = 2
− 2 = 2
p p p
Eroare! Legătură incorectă. 77

Capitolul 7 Repartiţii probabilistice clasice continue

7.1. Repartiţia uniformă

Funcţia de repartiţie care are densitatea de repartiţie :


⎧ 1
⎪ , x ∈ [a , b]
f (x) = ⎨ b − a (7.1)
⎪⎩0 , x ∉ [a , b]

se numeşte funcţie de repartiţie uniformă pe [a,b], iar variabila aleatoare continuă care are
această funcţie de repartiţie se numeşte uniformă pe [a,b].

Tabloul de distribuţie al acesteia este :


⎛ x ⎞
X:⎜ 1 ⎟
⎜ ⎟ (7.2)
⎝ b − a ⎠ x∈[ a , b ]
Funcţia de repartiţie uniformă se obţine pe baza definiţiei sale, astfel :
⎧0 , x≤a
⎪⎪ x
F(X) = ⎨∫ f ( t )dt , x ∈ [a , b]
⎪a
⎩⎪1 , x>b

Într-adevăr avem :
x a x x
F(X ) = ∫ f (t )dt = ∫ f (t )dt + ∫ f (t )dt = ∫ f (t )dt,
−∞ −∞ a a

deoarece pentru t a şi f(t)=0 prima integrală este nulă.


Deci :
x
dt x−a
F(X ) = ∫ =
a
b−a b−a

Dacă x b, putem scrie :


a b x b b
1
F(X ) = ∫ f (t )dt + ∫ f (t )dt + ∫ f (t )dt =∫ f (t )dt =
−∞ a b a
b − a ∫a
dt = 1,

deoarece, pentru t a şi t b, f(t)=0.


Aşadar :
78 Eroare! Legătură incorectă.

⎧0 , x≤a
⎪x − a
F( x ) = ⎨ , x ∈ (a , b ] (7.3)
⎪b − a
⎩1 , x>b

Graficele lui f(x) şi F(X) ale repartiţiei uniforme sunt prezentate în figurile 7.1 şi 7.2.

f(x) F(x)
1

1
b−a

0 a b x 0 a b x

Fig. 7.1 Fig. 7.2

Valoarea medie va fi dată de :


∞ b
1
b
a+b (7.4)
M (X ) = ∫ xf (x )dx =∫ xf (x )dx =
−∞ a

b−a a
xdx =
2

Momentul de ordinul II (mai important ) va fi :


∞ b
1
b
a 2 + ab + b 2 (7.5)
M (X 2 ) = ∫ x f (x )dx = ∫ x f (x )dx = b − a ∫a
=
2 2 2
x dx
−∞ a
3

Dispersia este dată de relaţia : M(X2)-[M(X)]2 , adică :

a 2 + ab + b 2 a 2 + 2ab + b 2 (b − a ) (7.6)
2
D( X ) = − =
3 4 12
Deoarece b a , rezultă :
b−a (7.7)
σ = D( X ) =
2 3
Eroare! Legătură incorectă. 79

7.2. Repartiţia normală (Gauss)

Este cea mai importantă dintre repartiţiile continue. Variabila aleatoare continuă X
urmează o repartiţie normală de parametrii m şi 2 (şi se notează N(m;2)) dacă densitatea
sa de repartiţie este :
( x − m )2 (7.8)
1 −
f ( x ; m, σ) = e 2σ 2
, x ∈ R , σ = D( X ) > 0
σ 2π

Variabila X se numeşte normală de parametrii m şi 2 dacă are funcţia de repartiţie


normală, respectiv tabloul de repartiţie :
⎛ x ⎞ (7.9)
⎜ ( x − m )2 ⎟
X:⎜ 1 − 2

⎜ e 2σ ⎟
⎝ σ 2π ⎠ x∈(−∞ ,∞ )
Funcţia de repartiţie normală este dată de :
x ( x − m )2 (7.10)
1 −
F( x ) =
σ 2π
∫e
−∞
2σ 2
dt

t−m
Pentru calculul integralei facem schimbarea de variabilă : = u şi rezultă
σ
dt=du, respectiv :
x −m
u2 0 u2
x −m
u2
(7.11)
σ σ
1 − 1 − 1 −
F( x ) =


−∞
e 2
du =


−∞
e 2
du +


0
e 2
du

Ştiind că integrala lui Poisson (integrala probabilităţii) este :




u2 (7.12)
∫e
−∞
2
du = 2π ,

1
prima integrală din relaţia (7.11) va fi 2π iar a doua integrală este funcţia integrală a
2
lui Laplace care se găseşte tabelată în cărţile de specialitate :

1
x

u2 (7.13)
Φ(x ) =


−∞
e 2
du ; Φ(− x ) = 1 − Φ( x )

Deci :
1 ⎛x − m⎞ (7.14)
F( x ) = + Φ⎜ ⎟
2 ⎝ σ ⎠
Valoarea medie şi dispersia repartiţiei N(m, 2) sunt tocmai cei doi parametrii, adică :
80 Eroare! Legătură incorectă.

M (X) = m şi D(X) = σ 2 (7.15)

unde  este abaterea medie pătratică.


Într-adevăr,
∞ ( x − m )2
1 − x−m
M(X) =
σ 2π
∫ x ⋅e
−∞
2σ 2
dx , unde înlocuind :
σ
=t

obţinem :
∞ t2 ∞ t2 ∞ t2
1 − σ − m −
M (X) =
2π −∞
∫ (tσ + m ) ⋅e 2
dt =

∫ t ⋅e
−∞
2
dt +


−∞
e 2
dt

Prima integrală este nulă (funcţia de integrat este impară) iar a doua este dată de
relaţia (7.12), deci : M(X)=m.
∞ ∞ ( x − m )2
1 −
D( X ) = ∫ ( x − m) f ( x )dx = ∫ ( x − m) ⋅e
2 2 2σ 2
dx
−∞ σ 2π −∞

Se face aceeaşi schimbare de variabilă şi apoi se integrează prin părţi :


∞ t2 t2
σ2 − −
D( X ) = ∫t ⋅e dt , t=u şi dv = t ⋅ e
2 2 2
,
2π −∞

t2

obţinem du=dt şi v = −e 2
, respectiv :

σ 2 ⎛⎜ 2 − 2 ⎞ σ2
2
t ∞ ∞ t2

D( X ) = t e + ∫ e 2
dt ⎟ = 2π = σ 2
2π ⎜⎝ −∞ −∞

⎠ 2π

primul termen tinde la zero iar al doilea este integrala lui Poisson.
Din aceste rezultate deducem că funcţia de repartiţie a unei variabile aleatoare este
perfect determinată de valoarea medie şi dispersia variabilei.
Reprezentarea grafică a densităţii este o curbă simetrică faţă de axa x=m (paralelă la
⎛ 1 ⎞
Oy) având punctul de maxim de coordonate ⎜⎜ m, ⎟⎟ , numită „curba normală” sau
⎝ σ 2π ⎠
„curba lui Gauss” (figura 7.3).
Punctele de abscisă (m-) şi respectiv (m+) sunt puncte de inflexiune ale curbei.
Astfel, curba este concavă dacă x ∈ (m − σ, m + σ ) şi convexă în afara intervalului.
Cu cât  este mai mic, cu atât ordonata punctului de maxim este mai mare (m
rămânând constant) şi invers.
Eroare! Legătură incorectă. 81

f(x)
1
σ 2π

0
m- m m+ x
Fig.7.3
Schimbarea lui m, în ipoteza că  rămâne constant, conduce la o translaţie a curbei
normale, forma ei rămânând neschimbată.
Momente centrate de ordin impar ale v.a. repartizate N(m, 2) sunt nule iar cele de
ordin par (2k) au valoarea :

μ 2 k (X) =
(2k )! σ 2k = 1 ⋅ 3 ⋅ 5 L (2k − 1)σ 2 k
k!2 k
Calculul momentelor centrate  r se face pornind de la formula de definiţie pe care o
integrăm prin părţi :
∞ ( x −m)2

∫ (x − m) f (x )dx
r r-1
μr = ; u=(x-m) ; dv = ( x − m)e 2σ 2

−∞

( x −m)2

obţinem : du=(r-1)(x-m)r-2dx şi v = −σ 2 e 2σ2
etc.
Se obţine o formulă de recurenţă dacă r=2k (par) iar în caz contrar (deoarece
(x-m)2k+1f(x) este impară pe un interval simetric) integrala va fi nulă. Astfel :
μ 2 k = (2k − 1)σ 2 μ 2 k − 2 , k=1,2,… (7.16)

Deci, ştiind că  0=1 şi  1=0, vom avea :


 2=D(X)= 2 ,  4=1 3 4 ,  6=1 3 5 6 ,% ,  2k=1 3% (2k-1)2k şi
 3 = 5 =% = 2k-1=0.

Coeficienţii de asimetrie şi boltire ai repartiţiei N(m, 2) sunt :


m − M0 m − m μ
α1 = = = 0 , α 2 = 33 = 0 (deci curba normală este simetrică faţă de
σ σ σ
x=m. Aceasta este o condiţie necesară de normalitate a unor legi ce descriu fenomene de
masă, dar nu şi suficientă).
μ4 1⋅ 3 ⋅ σ4
β= = = 3 şi excesul : E =  -3 = 0 .
σ4 σ4
82 Eroare! Legătură incorectă.

Dacă E 0, curba este mai ascuţită (mai bombată) decât cea normală iar dacă E 0,
curba este plată (mai puţin bombată).
Funcţia caracteristică se obţine din :
∞ ( x − m )2 (7.17)
1 −
ϕ( t ) = ∫e ⋅e
itx 2σ2
dx
σ 2π −∞

Se face schimbarea de variabilă cunoscută : x-m = u şi se ajunge la :


t 2σ2 ∞ ( u −itσ )2
itm − 1 −
ϕ( t ) = e 2


∫e
−∞
2
du

În continuare, notăm : u-it = z şi se obţine integrala :


∞ z2

∫e
−∞
2
dz = 2π (integrala Poisson),

deci, în final :
itm −
t 2σ2 (7.18)
ϕ( t ) = e 2

Cu ajutorul funcţiei caracteristice se poate demonstra că dacă ak k = 1, n , sunt ( )


n
constante iar Xk, v.a. independente, repartizate normal, atunci v.a. X = ∑ a k X k este
1

⎛ n n

repartizată : N⎜ ∑ a k m k ; ∑ a 2k σ 2k ⎟ .
⎝ 1 1 ⎠

7.3. Repartiţia normală normată (redusă)


Se obţine din N(m; ) în cazul particular : m=0 ; =1.

Deci: o variabilă aleatoare X are repartiţia N(0,1) dacă densitatea sa de repartiţie este :

1 −
x2 (7.19)
g( x ) = f ( x;0;1) = e 2
,x∈R

Funcţia de repartiţie este tocmai funcţia integrală a lui Laplace :


x
1
x

u2 (7.20)
Φ(x ) =
−∞
∫ g(u )du = 2π

−∞
e 2
du

Deoarece :  u 0, g(-u)=g(u), curba reprezentativă este simetrică faţă de dreapta


m=0 (care se confundă cu Oy) şi & (-x)=1-& (x).
Eroare! Legătură incorectă. 83

Funcţia densitate este reprezentată în figura 7.4.

f(x;0,1)

1
& (x)

- 0  x
Fig.7.4.

Din cauza simetriei graficului lui g(x) faţă de axa Oy este suficient să cunoaştem
valorile lui & (x) numai pentru x 0. Aceste valori se găsesc tabelate.
De asemenea : & (0)=0, & ('  )=-1/2 şi & ( )=1/2 aşa încât pentru întreaga axă
reală (x R) avem :
& (-x)+& (x)=1,
adică aria mărginită de curba f(x;0,1) şi axa Ox, tinde către 1.
X−m
Variabila : = Z , aşa cum s-a mai amintit, se numeşte variabilă normală
σ
normată sau redusă şi se utilizează notaţia : N(z;0,1).
1 ⎛x − m⎞
Din : F( x ) = + Φ⎜ ⎟ , (relaţia 7.14) care înseamnă de fapt P(X x) se deduce :
2 ⎝ σ ⎠
⎛b −m⎞ ⎛a − m⎞ (7.21)
P (a < X < b) = Φ ⎜ ⎟ − Φ⎜ ⎟ ; a b date
⎝ σ ⎠ ⎝ σ ⎠
Observaţii : 1) Din (7.21), pentru orice #  0, obţinem :

⎛α⎞ ⎛ α⎞
P ( m − α < X < m + α ) = P( X − m < α ) = Φ ⎜ ⎟ − Φ⎜ − ⎟ .
⎝σ⎠ ⎝ σ⎠
⎛ α⎞ ⎛α⎞
Dar, Φ⎜ − ⎟ = 1 − Φ⎜ ⎟ şi rezultă :
⎝ σ⎠ ⎝σ⎠
⎛α⎞ (7.22)
P( X − m < α ) = 2Φ⎜ ⎟ − 1
⎝σ⎠
De aici rezultă următoarea regulă : dacă v.a. X are repartiţia N(m,2) atunci : X − m < 3σ , cu o

probabilitate foarte apropiată de 1.


Într-adevăr, dacă # =3 obţinem :

P( X − m < 3σ) = 2Φ (3) − 1 = 2 ⋅ 0,9987 − 1 = 0,9974


(& (3) se obţine din tabela anexă).
84 Eroare! Legătură incorectă.

Acest rezultat susţine afirmaţia că X − m nu depăşeşte 3, adică : probabilitatea ca abaterea

absolută a v.a. X repartizată normal să depăşească 3 este :


1-0,9974=0,0026=0,26%.
2). Expresia asimptotică (6.8) a probabilităţilor Pn(k) ne sugerează faptul că repartiţia binomială este
asimptotic normală. Se poate arăta că funcţia caracteristică a v.a. normate tinde către funcţia caracteristică a
repartiţiei normale normate (reduse) N(0,1) :
t2

lim ϕ n ( t ) = e 2
n →∞

Acest rezultat permite să scriem pentru valori mai mari ale lui n :
t2
( )
b
1 −
P a npq < z − np < b npq ≅

∫e
a
2
dt

X−λ
3). Abaterea redusă a v.a. X care are repartiţia Poisson cu parametrul  este asimptotic
λ
normală N(0,1) pentru    .
Funcţia caracteristică a abaterii reduse este :

⎛ it X − λ ⎞ ⎛ it X ⎞
Ψ ( t , λ) = M⎜ e λ ⎟ = e −it λ M⎜ e λ ⎟ = e −it λ ϕ⎛⎜ t , λ ⎞⎟ ,
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ ⎠ ⎝ ⎠ ⎝ λ ⎠
unde  (t, ) este dată de relaţia (6.26). După efectuarea calculelor obţinem :
t2

lim Ψ ( t , λ ) = e 2
λ →∞

care este funcţia caracteristică a repartiţiei N(0,1).


Practic, repartiţiile binomială şi Poisson se asimilează unei repartiţii normale reduse
N(0,1) în următoarele condiţii :
a) Pentru repartiţia binomială, dacă n  50 şi np 18 se ia ca v.a. redusă (sau
X + 0,5 − np
ameliorată) variabila asimptotic normală N(0,1).
npq

X + 0,5 − λ
b) Pentru repartiţia Poisson, dacă   18 se ia v.a. redusă : , asimptotic
λ
normală N(0,1).

7.4. Repartiţia lognormală

Considerăm că v.a. X urmează o repartiţie lognormală dacă densitatea sa de repartiţie


este :
Eroare! Legătură incorectă. 85

(ln x − a )2 (7.23)
1 −
f (x) = e 2σ2

σx 2π

ln X − a
unde a=M(X) şi 2=D(lnX). Dacă notăm : Z = , rezultă X= ea+z , v.a. Z fiind
σ
repartizată N(0,1).
Valoarea medie a v.a. lognormale este :
∞ ∞ (ln x − a )2 σ2 (7.24)
1 − a+
M (X) = ∫ xf ( x )dx = ∫ dx = e
2

e 2

0 σ 2π 0

Pentru calculul integralei se face schimbarea de variabilă : lnx-a=u.


Dispersia v.a. X va fi :
∞ (7.25)
D(X ) = ∫ [x − M (X)] f ( x )dx = L = e 2 a + σ
2
2 2
( e σ −1)

Importanţa acestei repartiţii constă în faptul că dacă x=0, f(x)=0, ceea ce convine în
cazul variabilei timp ; această proprietate nu este întâlnită la repartiţia normală. De

( )
n
asemenea, dacă Xk k = 1, n sunt v.a. lognormale independente, atunci ∏X
1
k este o v.a.

lognormală (rezultă din proprietatea de aditivitate a v.a. independente).

7.5. Repartiţia gamma.

V.a. X urmează o repartiţie gamma dacă are densitatea de repartiţie :


⎧ 1 1 −
x
⎪ ⋅ a x a −1 e b , x≥0
f ( x ; a , b) = ⎨ Γ (a ) b ; a,b>0 (7.26)
⎪ 0 , x<0

În particular se utilizează şi varianta când b=1.


Se poate arăta că f(x;a,b) satisface condiţiile pentru a fi o funcţie densitate :
f(x;a,b)  0, evidentă,
+∞
şi ∫ f (x)dx = 1 (cu schimbarea de variabilă x=bt şi ţinând cont de definirea funcţiei (a),
−∞


de speţa a doua, a lui Euler : Γ(a ) = ∫ t a −1e − t dt ).
0

Graficul curbei de distribuţie depinde de valorile parametrilor a şi b. În figura 7.5 se


prezintă alura curbei y=f(x;a,b) în cazurile : a (0,1), a=1 şi a 1.
86 Eroare! Legătură incorectă.

f(x) f(x) f(x)

0<a<1 a=1 a>1

0 x 0 x 0 x

Fig.7.5.

Valoarea modală este M0(X)=b(a-1) (rădăcina derivatei f ′ (x) adică abscisa


punctului de maxim).
Funcţia de repartiţie este dată de relaţia :
⎧x 1 1 −
t
⎪∫ ⋅ a t a −1 e b dt , x ≥ 0
F( x ) = P(X < x ) = ⎨ Γ(a ) b a,b 0 (7.27)
0
⎪ 0 , x<0

Ştiind că : F’(x)=f(x)  0 , când x 0, rezultă că F este strict crescătoare când x 0.
Graficul lui F(x) este de forma prezentată în figura 7.6.

F(x) F(x)

1 1

a 1 a>1

0 x 0 x

Fig.7.6.

Momentul de ordinul k :
∞ ∞ x
1 1 −
∫ x f (x )dx = ∫ x e b dx
a + k −1
M k = M(X k ) = k
⋅ a
−∞
Γ (a ) b 0

x
Facem schimbarea de variabilă = t ; dx=bdt şi obţinem :
b
Eroare! Legătură incorectă. 87

bk
Mk = ⋅ Γ (a + k )
Γ (a )
Dar :
Γ(a + k ) = a (a + 1) L (a + k − 1)Γ(a ) , deci

M k = a (a + 1) L (a + k − 1)b k (7.28)

Valoarea medie este :


M1(X)=ab (7.29)
Momentul de ordinul II :
M2(X)=a(a+1)b2, iar (7.30)
Dispersia :
D(X) = M 2 − M 12 = ab 2 (7.31)

De asemenea, cu ajutorul formulelor de definiţie obţinem momentele centrate mai des


folosite :
 1=0 ,  2=ab2 ,  3=2ab3 ,  4=3a(a+2)b4.
Cu ajutorul lor se determină :
- coeficienţii de asimetrie :
m − M 0 ab − b(a − 1) 1
α1 = = = (Pearson)
σ b a a
μ 2ab 3 2
α 2 = 33 = 3 = (Fischer)
σ b a a a
- coeficientul de boltire :
μ4 ⎛ 2⎞
β= = 3⎜1 + ⎟
σ 4
⎝ a⎠
- excesul repartiţiei :
6
E =β−3=
a
Funcţia caracteristică este dată de formula :
∞ ∞ ⎛ 1⎞
1 ⎜ it − ⎟ x
ϕ( t ) = ∫ e f ( x; a , b)dx =
Γ(a )b a ∫0
itx a −1 ⎝ b ⎠
x e dx
0

⎛ 1⎞
Integrala se calculează prin substituţia : ⎜ it − ⎟ x = y şi se obţine :
⎝ b⎠
1 (7.32)
ϕ( t ) =
(1 − itb) a
88 Eroare! Legătură incorectă.

1
Fie v.a. X repartizată ! , cu funcţia de repartiţie F(x) şi v.a. Y = X (b – parametru
b
de scală al repartiţiei ! ), cu funcţia de repartiţie G(x). Avem :
⎛X ⎞
G ( x ) = P(Y < x ) = P⎜ < x ⎟ = P(X < bx ) = F(bx ) , adică :
⎝b ⎠
bx t
1 −
G(x) = ∫ a −1
t e dt , x ≥ 0
b

0 Γ (a ) b
a

Derivăm în raport cu x şi deducem că G’(x) nu depinde de parametrul b :


x a −1 e − x
G ' ( x ) = F' (bx ) = bf (bx ) =
Γ (a )
În cazul particular a=1 se obţine densitatea repartiţiei exponenţiale negative.

7.6. Repartiţia beta

V.a. X urmează repartiţia beta de parametrii a,b (a,b 0) dacă are densitatea de
repartiţie :
⎧ 1 (7.33)
⎪ x a −1 (1 − x ) b −1 , x ∈ [0,1]
f ( x; a , b) = ⎨ B(a , b)
⎪⎩ 0 , x < 0saux > 1

unde B(a,b) este funcţia lui Euler de speţa întâi.



Este evident că f 0 şi ∫ f (x; a, b)dx =1 , adică sunt îndeplinite condiţiile de existenţă
−∞

a densităţii de repartiţie. Între funcţiile lui Euler are loc relaţia :

Γ (a ) ⋅ Γ ( b) (7.34)
B(a , b) =
Γ (a + b)

Câteva curbe densitate beta sunt prezentate în fig. 7.7:

f(x;a,b)
1
a=b=
2
2
a=b=3
a=1; b=2 a=2; b=1

a=b=1
1
Eroare! Legătură incorectă. 89

Fig.7.7.

Funcţia de repartiţie a variabilei beta este :


⎧ 0 , x≤0
⎪⎪ 1 x a −1
(7.35)
F( x ) = P(X < x ) = ⎨ ∫ t (1 − t ) b −1 dt , 0 < x ≤ 1
⎪ B(a , b) 0
⎪⎩ 1 , x >1

În figurile 7.8 se reprezintă graficele unor funcţii de repartiţie pentru diferite valori
ale parametrilor a şi b.

f(x) f(x) f(x)


a<1, b>1 a<1, b=1 a<1, b<1
1 1 1

0 1 x 0 1 x 0 1 x

f(x) f(x) f(x)


a=1, b>1 a=1, b=1 a=1, b<1
1 1 1

0 1 x 0 1 x 0 1 x

f(x) f(x) f(x)


a>1, b>1 a>1, b=1 a>1, b<1
1 1 1
90 Eroare! Legătură incorectă.

Fig.7.8.
Caracteristici numerice : prin calcul obţinem :
1 1
1 B(a + k , b)
M k (X) = ∫ x k f ( x )dx = ∫ x k + a −1 (1 − x ) b −1 dx = =
0
B(a , b) 0 B(a , b)
Γ (a + k )Γ (b) Γ (a + b) Γ(a + k )Γ(a + b)
= ⋅ = =
Γ ( a + b + k ) Γ ( a )Γ ( b ) Γ ( a + b + k ) Γ ( a )
(7.36)
Γ (a + b ) a (a + 1) L (a + k − 1) Γ (a )
= ⋅ ⋅
Γ (a ) (a + b)(a + b + 1) L (a + b + k − 1) Γ(a + b)
a (a + 1) L (a + k − 1)
Mk =
(a + b)(a + b + 1) L (a + b + k − 1)
Rezultă :
a (7.37)
M(X) = m =
a+b
a (a + 1) (7.38)
M 2 (X) =
(a + b)(a + b + 1)
ab (7.39)
D( X ) = M 2 − M 2 =
(a + b) (a + b + 1)
2

Valoarea modală se află calculând mai întâi punctele de maxim local ale densităţii de
repartiţie şi pentru a simplifica scrierea vom deriva B(a,b)f(x) :
B(a , b)f ' ( x ) = (a − 1) x a − 2 (1 − x ) b −1 − (b − 1)(1 − x ) b − 2 x a −1 =
= [(a − 1)(1 − x ) − (b − 1) x ]x a − 2 (1 − x ) b − 2
a −1
Rădăcinile sunt : x1=0 , x2=1 , x 3 = .
a+b−2
Observăm că : f(0)=0 şi f(1)=0 iar pentru x3 , în cazul a+b-2>0 avem maximul :
a −1 (7.40)
M 0 (X) =
a+b−2

7.6.1.Cazuri particulare :
1). Pentru a=b=1, obţinem densitatea de repartiţie uniformă pe (0,1) :
Eroare! Legătură incorectă. 91

1 , x ∈ (0,1) (7.41)
f 1 ( x ) = ⎧⎨
⎩0 , x ∉ (0,1)
2). Pentru a=2, b=1, obţinem densitatea de repartiţie triunghiulară :
2 x , x ∈ (0,1) (7.42)
f 2 ( x ) = ⎧⎨
⎩ 0 , x ∉ (0,1)
3). Pentru a=1, b=2, obţinem densitatea de repartiţie semitriunghiulară :
2(1 − x ) , x ∈ (0,1) (7.43)
f 3 ( x ) = ⎧⎨
⎩ 0 , x ∉ (0,1)

4). Pentru a=b=2, obţinem densitatea de repartiţie parabolică :


2 x (1 − x ) , x ∈ (0,1) (7.44)
f 4 ( x ) = ⎧⎨
⎩ 0 , x ∉ (0,1)

Aceste cazuri particulare sunt prezentate în figurile 7.9.


f1(x) f2(x)
2

] [ [
0 1 x 0 1 x

f3(x) f4(x)
2
1,5

]
0 1 x 0 0,5 1 x
Fig.7.9

7.7. Repartiţia exponenţială negativă

Variabila aleatoare X urmează o repartiţie exponenţială negativă dacă are densitatea


de repartiţie :
⎧ − λx (7.45)
f ( x ) = ⎨λe , x ≥ 0 ; λ > 0
⎩ 0, x<0

Funcţia de repartiţie este :


92 Eroare! Legătură incorectă.

⎧ − λx (7.46)
F( x ) = ⎨1 − e , x > 0 ,
⎩ 0, x≤0

Iar funcţia caracteristică :


λ (7.47)
ϕ( t ) =
λ − it
Momentele repartiţiei se află utilizând derivatele lui  (t) în t=0 :

1 ⎛ drϕ ⎞ 1 2 (7.48)
M r (X) = ⎜ r ⎟⎟ ; M 1 (X) = ; M 2 (X) = 2
r ⎜
i ⎝ dt ⎠ t =0 λ λ

Dispersia deci, va fi :
1 (7.49)
D(X) = M 2 − M 12 =
λ2

Această repartiţie este un caz particular al repartiţiei gamma (a=1) în care notăm
1/b= ; (b>0). În fig. 7.10 se prezintă graficele lui f(x) şi F(x) :

f(x) F(x)

 1

]
0 x 0 x

Fig. 7.10

7.8. Repartiţia Weibull

O v.a. X are repartiţia Weibull dacă densitatea sa de repartiţie este :


m
m −1 ⎛ x −u ⎞
m ⎛x−u⎞ − ⎜⎜ ⎟

f (x) = ⎜ ⎟ ⋅e ⎝ x0 ⎠
,
x 0 ⎜⎝ x 0 ⎟⎠ (7.50)

unde : x0>0, m>0, 0 u x< . Pentru x<0, f(x)=0.


Această repartiţie se utilizează cu rezultate foarte bune în studiul uzurii şi a duratei de
viaţă a materialelor. În general este importantă în teoria fiabilităţii.
În fig. 7.11 se reprezintă f(x) pentru diferite valori ale lui m.

f(x)

1,2
x0
Eroare! Legătură incorectă. 93

1 m=3
x0

m=2

1
m=
2
m=1

0 2 2 4 x
3
3 x0

Fig.7.11.
Funcţia de repartiţie este :
⎧ ⎛ x −u ⎞
m
(7.51)
⎪ − ⎜⎜ ⎟

F( x ) = ⎨1 − e ⎝ x 0 ⎠ ; x ≥ u, u ≥ 0
⎪⎩ 0; x<0

Observăm din figură şi din formula (7.50) că pentru u=0 şi m=1 repartiţia Weibull
coincide cu repartiţia exponenţială negativă, iar dacă m 3 ea tinde către o repartiţie
normală.
Momentele variabilei X, în cazul u=0 sunt date de :
m
∞ ⎛ x ⎞
− ⎜⎜ ⎟
m ⎟
∫x
r + m −1 ⎝ x0
M r (X) = ⋅e ⎠
dx (7.52)
x 0m 0

m
⎛ x ⎞
Dacă facem substituţia ⎜⎜ ⎟⎟ = y , deducem :
⎝ x0 ⎠
∞ r
⎛ r ⎞ (7.53)
M r (X) = x 0 ∫ y e − y dy = x 0 ⋅ Γ⎜ + 1⎟, m > 0
m

0 ⎝m ⎠

Valoarea medie şi dispersia vor fi :


⎛1 ⎞ (7.54)
M (X) = x 0 Γ⎜ + 1⎟ ; u = 0
⎝m ⎠
⎛1 ⎞ (7.55)
şi M (X) = u + x 0 Γ⎜ + 1⎟ dacă u>0
⎝m ⎠
94 Eroare! Legătură incorectă.

2 (7.56)
⎛2 ⎞ ⎡ ⎛1 ⎞⎤
D(X) = M 2 (X) − [M(X)]
2
= x 0 Γ⎜ + 1⎟ - x 02 ⎢Γ⎜ + 1⎟⎥
⎝m ⎠ ⎣ ⎝m ⎠⎦

7.9. Repartiţia Erlang

În acest caz, v.a. X are funcţia densitate de repartiţie dată de :

f (x) =
(λk )k x k −1 e − λkx
(7.57)
Γ(k )
unde :  >0, k 1, x [0, )

Pentru k=1 obţinem densitatea repartiţiei exponenţiale negative, iar dacă  k=1,
repartiţia Erlang coincide cu repartiţia gamma de parametru 1/ .
Momentul de ordinul r :

(λk )k ∞ (7.58)
∫ x e dx
r + k −1 − λkx
M r (X) =
Γ(k ) 0

Prin schimbarea de variabilă  kx=y rezultă :

1

Γ( k + r ) (7.59)
∫ x e dy =
r + k −1 − y
M r (X) =
(λk )r Γ(k ) 0 (λk )r Γ(k )

De aici se poate deduce că :


1 k +1 (7.60)
M 1 (X) = şi M 2 (X) =
λ kλ2

respectiv :
1 (7.61)
D( X ) =
kλ2

2
7.10. Repartiţia  (hi – pătrat)
2
Variabila aleatoare X urmează o repartiţie  cu n grade de libertate şi parametru
 0, dacă densitatea sa de repartiţie este :
⎧ 1
n
−1
x
− 2
⎪ n x ⋅e
2 2σ
, x≥0 , n∈N
⎪ ⎛ n ⎞ (7.62)
f ( x ) = ⎨ 2 2 σ Γ⎜ ⎟
n

⎪ ⎝2⎠
⎪⎩ 0 , x<0
Eroare! Legătură incorectă. 95

Aceasta se obţine din repartiţia ! , în care : a=n/2 , b=22.


Numărul gradelor de libertate (n) reprezintă numărul de variabile aleatoare normale,
de medie nulă şi dispersie 2, ale căror pătrate însumate reprezintă tocmai o variabilă  2.
Vom nota : X (  2 (n, 2)
Pentru a facilita trasarea graficului densităţii de repartiţie se notează cu c, factorul
n x
1 −1 −

n
şi astfel : lim f ( x ) = c lim x 2 ⋅ e 2σ2
= 0 , adică y=0 este asimptotă orizon-
⎛n⎞ x →∞ x →∞
2 σ n Γ⎜ ⎟
2

⎝2⎠
n x
⎛n 1 ⎞ −2 −
tală la (+ ). Curba trece prin origine. Pentru n 1, f ' ( x ) = c ⋅ x 2 e
⎜ −1− x⎟ , 2σ 2

⎝2 2σ 2 ⎠
cu rădăcina x0=(n-2) 2
0, care reprezintă M0(X)- punct de maxim local (fs’(x0) 0 ,
fd’(x0) 0).

Graficul (fig. 7.12) depinde de n şi . În general, se constată că pentru n 25 acesta


tinde către o curbă normală (Gauss).

f(x)

f(M0)

0 M0 x
Fig.7.12

Funcţia caracteristică este de forma :

1
∞ n
−1 −
1− 2 itσ 2 (7.63)
ϕ( t ) = n
⎛n⎞
∫x 2
e 2σ2
dx
2 2 σ n Γ⎜ ⎟ 0

⎝2⎠
După efectuarea calculelor obţinem :
(7.64)
( )
n

ϕ( t ) = 1 − 2itσ 2 2

Momentele repartiţiei  2 vor fi :


96 Eroare! Legătură incorectă.

1 ⎛ dϕ ⎞
M 1 ( X ) = ⎜ ⎟ = nσ 2 (7.65)
i ⎝ dt ⎠ t = 0

⎛ d 2ϕ ⎞ 1
⎜⎜ 2 ⎟⎟ = n (n + 2)σ 4
M 2 (X) = (7.66)
⎝ dt ⎠ t = 0 i2
LLLLLLLLLLLLLLL
1 ⎛ drϕ ⎞ (7.67)
M r (X) = ⎜⎜ r ⎟⎟ = n (n + 2) L (n + 2r − 2)σ 2 r
ir ⎝ dt ⎠ t = 0
Dispersia este :
D(X) = M 2 (X) − [M 1 (X)] 2 = 2nσ 4 (7.68)

Utilizând funcţia caracteristică se poate arăta că dacă v.a. X are repartiţia  2 (n, 2)
X − nσ 2
atunci variabila , este asimptotic normală pentru n → ∞ .
σ 2 2n
De asemenea, se arată că dacă v.a. independente X1 şi X2 sunt repartizate  2 cu n1
respectiv n2 grade de libertate şi parametru , atunci variabila (X1 + X2) este repartizată
 2 cu (n1+ n2) grade de libertate şi parametru  :
n1 + n 2
(7.69)
ϕ X1 + X 2 ( t ) = ϕ X1 ( t ) ⋅ ϕ X 2 ( t ) = (1 − 2itσ 2 )

2

Teoremă : Dacă Xk(k=1,n) sunt v.a. independente, fiecare repartizate N(0, ), atunci
v.a. Y = ∑ X 2k este repartizată  2 (n, 2).

Demonstraţie : Determinăm mai întâi funcţia de repartiţie pentru Xk2 :


u2

( )
x
1 −
F( x ) = P(X < x ) = P − x < X k < x = ∫e
2 2σ2
k du
σ 2π − x

De aici,
x
1 −
f ( x ) = F' ( x ) = e 2σ 2

σ 2πx

( )= σ
∞ 1 1− 2 itσ 2 1
1 − − −
∫x e
itX 2k
şi ϕ X 2 ( t ) = M e 2 2σ2
dx = (1 − 2itσ 2 ) 2
k
2π 0

V.a. Xk fiind independente, funcţia caracteristică a v.a. Y va fi :


(7.70)
( )
n n
ϕ Y ( t ) = ∏ ϕ X 2 = 1 − 2itσ 2

2
k
k =1

adică tocmai expresia (7.64), deci Y este repartizată  2(n,2).


Eroare! Legătură incorectă. 97

7.10.1.Cazuri particulare de repartiţii  2 :


Pentru n=2, obţinem :

⎧ 1 − x2
⎪ 2σ
, x ≥ 0,
f ( x ) = ⎨ 2σ 2 e
⎪⎩ 0, x<0

care este funcţia densitate a repartiţiei Rayleigh.

Pentru n=3, rezultă :


⎧ 1 x
− 2 (7.71)
⎪ 2σ
, x≥0
f ( x ) = ⎨ 2 2σ 3 x e
⎪ 0, x<0

corespunzătoare repartiţiei Maxwell.

7.11. Repartiţia „t” (Student)


STUDENT este pseudonimul statisticianului V.S.Gosset.
V.a. X este repartizată „t” cu n grade de libertate dacă are densitatea de repartiţie :
⎛ n + 1⎞
Γ⎜ ⎟ n +1
2 − 2
⎝ 2 ⎛
⎠ ⎜1 x ⎞ (7.72)
f (x) = ⎜ + ⎟⎟ ; x ∈ R, n ∈ N *
⎛ ⎞
n n
πn Γ⎜ ⎟ ⎝ ⎠
⎝2⎠

Ca exerciţiu, să arătăm că f(x) este într-adevăr o densitate de repartiţie :


Observăm că f(x) 0,( )x R şi în plus f(-x)=f(x). Atunci :
n +1 n +1
∞ − ∞ −
⎛ x2 ⎞ 2 ⎛ x2 ⎞ 2
I = ∫ ⎜⎜1 + ⎟ dx = 2 ∫ ⎜⎜1 + ⎟ dx
− ∞⎝
n ⎟⎠ 0⎝
n ⎟⎠

x2 n
Facem schimbarea de variabilă = y > 0, dx = dy şi ţinem seama de funcţia
n 2 y

beta a lui Euler :



Β(a , b) = ∫ x a −1 ⋅ (1 + x ) −( a + b ) dx
0

După înlocuire şi calcule rezultă :


98 Eroare! Legătură incorectă.

⎛1⎞ ⎛n⎞
Γ⎜ ⎟ ⋅ Γ⎜ ⎟
⎛1 n⎞ ⎝2⎠ ⎝ 2⎠
I = n ⋅ Β⎜ , ⎟ = n
⎝2 2⎠ ⎛ n + 1⎞
Γ⎜ ⎟
⎝ 2 ⎠
⎛1⎞
Deoarece Γ⎜ ⎟ = π , ţinând seama de (7.72), deducem :
⎝2⎠

∫ f (x)dx = 1 ,
−∞

deci f(x) este o funcţie densitate de repartiţie.


Graficul lui f(x) pentru n=1 şi n=5 este prezentat în fig. 7.13. şi se observă că forma
lor aminteşte de curba distribuţiei normale.

f(x)

n=5

n=1

0 x

Fig.7.13.

Se poate arăta că dacă v.a. X este repartizată „t” cu n grade de libertate, atunci X este
asimptotic normală N(0,1) pentru n   . Practic pentru n 30 , repartiţia „t” poate fi
aproximată cu N(0,1).
Funcţia de repartiţie este dată de relaţia :
⎛ n + 1⎞
Γ⎜ ⎟ n +1
2 − 2
x x
⎝ 2 ⎠ ⎜ ⎛ t ⎞ (7.73)
F( x ) = ∫ f ( t )dt = ∫ ⋅ ⎜1 + ⎟⎟ dt = 0 ,
⎛n⎞ n⎠
−∞ −∞
πn ⋅ Γ⎜ ⎟ ⎝
⎝2⎠
care nu se poate aduce la o formă mai simplă. De aceea F(x) este tabelată pentru diferite
valori ale lui x şi n. Deoarece f(x) este pară, avem F(-x)=1-F(x) şi este suficient să
cunoaştem valorile lui F pentru x  0.
Eroare! Legătură incorectă. 99

Din acelaşi motiv (f(x)-pară), M(x)=0 iar momentele obişnuite coincid cu momentele
centrate :
⎛ n + 1⎞
Γ⎜ ⎟ ∞ n +1
2 − 2
⎝ 2 ⎠ ⎛ x ⎞ (7.74)
⎛ n ⎞ −∫∞
μ 2 r +1 (X) = ⋅ x 2 r +1 ⎜⎜1 + ⎟ dx = 0
⎝ n ⎟⎠
πn ⋅ Γ⎜ ⎟
⎝2⎠
⎛ n + 1⎞
Γ⎜ ⎟ ∞ n +1
2 − 2
⎝ 2 ⎠ ⎛ x ⎞ (7.75)
μ 21 (X) = ⋅ ∫ x 2 r ⎜⎜1 + ⎟ dx = 0
⎛ n ⎞ −∞ ⎝ n ⎟⎠
πn ⋅ Γ⎜ ⎟
⎝2⎠
x2
Prin schimbarea de variabilă = u , deducem :
n
⎛ 1⎞ ⎛n ⎞
r
Γ⎜ r + ⎟ ⋅ Γ⎜ − r ⎟
n ⎝ 2⎠ ⎝ 2 ⎠ n (7.76)
μ 2r = ⋅ ; r<
π ⎛n⎞ 2
Γ⎜ ⎟
⎝2⎠
Având în vedere relaţiile de recurenţă :
⎛ 1⎞ ⎛ 1 ⎞⎛ 3⎞ 1 ⎛1⎞ ⎛ 1 ⎞⎛ 3⎞ 1
Γ⎜ r + ⎟ = ⎜ r − ⎟⎜ r − ⎟ L Γ⎜ ⎟ = ⎜ r − ⎟⎜ r − ⎟L π
⎝ 2⎠ ⎝ 2 ⎠⎝ 2⎠ 2 ⎝ 2⎠ ⎝ 2 ⎠⎝ 2⎠ 2
⎛n⎞ ⎛n ⎞⎛ n ⎞ ⎛n ⎞ ⎛n ⎞
Γ⎜ ⎟ = ⎜ − 1⎟⎜ − 2 ⎟ L ⎜ − r ⎟ ⋅ Γ⎜ − r ⎟,
⎝ 2 ⎠ ⎝ 2 ⎠⎝ 2 ⎠ ⎝2 ⎠ ⎝2 ⎠
obţinem :
1 ⋅ 3 ⋅ 5 L (2r − 1) n (7.77)
μ 2 r (X) = n r ; r<
(n − 2)(n − 4) L (n − 2r ) 2
De aici, deducem dispersia :
n (7.78)
D( X ) = μ 2 ( X ) =
n−2
Următoarele teoreme (fără demonstraţie) ne arată diferite modalităţi de a ajunge la
repartiţia „t”.
T1 : Dacă X şi Y sunt v.a. independente iar X este repartizată N(0,) şi Y repartizată
X
 2(n,2) atunci v.a. : z = , este repartizată „t” cu n grade de libertate.
Y
n

T2 : Dacă v.a. independente Xk (k=1,n) sunt repartizate N(0,1), atunci v.a. :


100 Eroare! Legătură incorectă.

1 n
∑ Xk
n k =1
Z = n (n − 1) ⋅
2
n
⎛ 1 n ⎞
∑ ⎜Xi − ∑ Xk ⎟
i =1 ⎝ n k =1 ⎠
este repartizată „t” cu (n-1) grade de libertate.

7.12. Repartiţia Snedecor

Variabila aleatoare X urmează această repartiţie cu m,n grade de libertate, dacă are
densitatea de repartiţie :
⎛m+n⎞
m Γ⎜ ⎟ m −
m+n
⎛m⎞ 2 ⎝ 2 ⎠ −1 ⎛ m ⎞ 2
(7.79)
f (x) = ⎜ ⎟ ⋅ x 2 ⎜1 + x ⎟
⎝n⎠ ⎛m⎞ ⎛n⎞ ⎝ n ⎠
Γ⎜ ⎟ ⋅ Γ ⎜ ⎟
⎝ 2 ⎠ ⎝2⎠
unde : x ☯ 0, ) şi m, n N*.

Momentele repartiţiei Snedecor se calculează direct cu formula de definiţie, în care


m
facem schimbarea de variabilă : x = u şi ţinem seama că :
n

Γ (a ) ⋅ Γ ( b) (7.80)
∫x
a −1
(1 + x ) −( a + b ) dx = B(a , b) =
0
Γ (a + b)

Obţinem :
⎛ m⎞ ⎛n ⎞
Γ⎜ r + ⎟ ⋅ Γ⎜ − r ⎟
r
⎛m⎞ ⎝ 2 ⎠ ⎝2 ⎠ n (7.81)
M r (X) = ⎜ ⎟ , r<
⎝n⎠ ⎛m⎞ ⎛n⎞ 2
Γ ⎜ ⎟ ⋅ Γ⎜ ⎟
⎝ 2 ⎠ ⎝2⎠

Dar :
⎛ m⎞ ⎛m ⎞⎛ m ⎞ m ⎛m⎞
Γ⎜ r + ⎟ = ⎜ + r − 1⎟⎜ + r − 2 ⎟ L Γ⎜ ⎟
⎝ 2⎠ ⎝2 ⎠⎝ 2 ⎠ 2 ⎝2⎠
⎛n⎞ ⎛n ⎞⎛ n ⎞ ⎛n ⎞ ⎛n ⎞
Γ⎜ ⎟ = ⎜ − 1⎟⎜ − 2 ⎟ L ⎜ − r ⎟Γ⎜ − r ⎟
⎝ 2 ⎠ ⎝ 2 ⎠⎝ 2 ⎠ ⎝2 ⎠ ⎝2 ⎠
Deci :
Eroare! Legătură incorectă. 101

r
⎛ n ⎞ m ( m + 2) L ( m + 2 r − 2) (7.82)
M r (X) = ⎜ ⎟ ⋅
⎝ m ⎠ (n − 2)(n − 4) L (n − 2r )
În particular :
n (7.83)
M 1 (X) = , n>2
n−2
n2 m+2 (7.84)
M 2 (X) = ⋅ , n>4
m (n − 2)(n − 4)

2n 2 m+n+2 (7.85)
D( X ) = ⋅ , n>4
m (n − 2) 2 (n − 4)
Observăm că valoarea medie este independentă de m.
Enunţăm în cele ce urmează două teoreme care ne oferă căi de a ajunge la repartiţia
Snedecor :
T1 : Dacă v.a. independente X1 şi X2 sunt repartizate  2(m,2), respectiv  2(n,2),
m X1
atunci v.a. : Y = ⋅ , este repartizată Snedecor cu m,n grade de libertate.
n X2

T2 : Dacă v.a X este repartizată „t” cu n grade de libertate, atunci v.a. X2 este
repartizată Snedecor cu 1,n grade de libertate.

7.13. Repartiţia Fischer

V.a. X urmează repartiţia Fischer cu m,n grade de libertate dacă are densitatea de
repartiţie :
⎛m+n⎞
m Γ⎜ ⎟ −
m+n
⎛m⎞ 2 ⎝ 2 ⎠ ⎛ m ⎞ 2
(7.86)
f ( x ) = 2⎜ ⎟ ⋅ e mx ⎜1 + e 2 x ⎟
⎝n⎠ ⎛m⎞ ⎛n⎞ ⎝ n ⎠
Γ⎜ ⎟ ⋅ Γ⎜ ⎟
⎝ 2 ⎠ ⎝2⎠
unde : x R ; m,n N*.
Dacă Y este o v.a. având repartiţia Snedecor cu m,n grade de libertate, atunci v.a.:
1
X= ln Y , este repartizată Fischer cu m, n grade de libertate. (Demonstraţia se poate
2
face plecând de la funcţia de repartiţie a v.a. X).
102 Eroare! Legătură incorectă.

−1
⎛ m ⎞ ⎛n m⎞
Deasemenea, se poate arăta că v.a. : ⎜1 + Y ⎟ , are repartiţia B⎜ , ⎟ , iar v.a :
⎝ n ⎠ ⎝2 2 ⎠
⎛m n⎞
mY(n+mY)-1, are repartiţia B⎜ , ⎟ .
⎝ 2 2⎠

7.14. Repartiţia Cauchy

V.a. are repartiţia Cauchy C(a,b), dacă densitatea sa de repartiţie este :


1 a (7.87)
f (x) = ⋅ 2 ; a > 0 , x R
π a + ( x − b) 2

Repartiţia C(a,b) este unidimensională şi simetrică faţă de dreapta x=b. Valoarea


modală şi mediana acestei repartiţii sunt egale cu b, iar cuartilele sunt egale cu a b.
Repartiţia C(a,b) nu admite momente sau momente centrate.
Funcţia caracteristică este :

ϕ( t ) = e
itb + a t (7.88)

Dacă v.a. X are repartiţia C(a,b), atunci v.a. : (λX + μ) are repartiţia C( λ a , λb + μ) .

Într-adevăr,

( ) ( )
ϕ λX + μ ( t ) = M e it ( λX + μ ) = e itμ ⋅ M e itλX = e itμ ⋅ ϕ x ( tλ) = e
it (μ + λb )− aλ t
, care demonstrează

afirmaţia anterioară.
n
Dacă v.a. independente Xk , k=1,n, au repartiţiile C(ak,bk), atunci v.a. : ∑X
1
k , are

⎛ n n

repartiţia C⎜ ∑ a k , ∑ b k ⎟ .
⎝ 1 1 ⎠

7.15. Probleme rezolvate :


1) Se consideră v.a. X ~ N(m, σ) . Să se arate că m este parametru de locaţie (adică
funcţia de repartiţie a lui (X-m) nu depinde de m).
X−m
Soluţie : Fie Y = variabila normată Y ~ N(0,1) . Notăm cu : Z = X − m = σY .
σ
Trebuie să arătăm că funcţia de repartiţie a lui Z, G(x) nu depinde de m.
⎛ x⎞ 1 ⎛x⎞
Avem : G ( x ) = P( Z < x ) = P(σY < x ) = P⎜ Y < ⎟ = + Φ⎜ ⎟ , deci G nu depinde de
⎝ σ⎠ 2 ⎝σ⎠
m. Se verifică imediat că parametrul , separat, nu este un parametru de scală.
Eroare! Legătură incorectă. 103

2) Fie v.a. independente : X 1 ~ N(m 1 , σ1 ) şi X 2 ~ N(m 2 , σ 2 ) . Să se studieze


repartiţia variabilei : Y = a 1 X 1 + a 2 X 2 , a1,a2 R.
Soluţie : Utilizăm funcţiile caracteristice  1 respectiv  2, ale variabilelor X1 şi X2.
Notăm cu  funcţia caracteristică a lui Y.

Avem :
t 2 a 12 σ12 t 2 a 22 σ 22

ϕ( t ) = M e ( ) = M(e
itY it ( a 1X1 + a 2 X 2 )
) = M(e ita 1X1
e ita 2 X 2
) = ϕ (a t )ϕ
1 1 2 (a 2 t ) = e
m1a 1it −
2
⋅e
m 2 a 2 it −
2
=
( m1a1 + m 2 a 2 )it −
t 2
(
a 12 σ12 + a 22 σ 22 ) mit −
2
t σ 2

=e =e 2 2

în care am notat : m=a1m1+a2m2 şi σ 2 = a 12 σ12 + a 22 σ 22 . Din forma funcţiei caracteristice

(
rezultă : Y ~ N a 1 m 1 + a 2 m 2 , a 12 σ12 + a 22 σ 22 . )
3) Fie X o v.a. pozitivă ce urmează o repartiţie lognormală, adică : lnX~N(m,).
n
Să se afle repartiţia variabilei Y = ∏ X k , unde Xk~logN(mk,k), k = 1, n şi sunt
1

independente în totalitatea lor.


n
Soluţie : Avem lnXk~N(mk,k)., k = 1, n şi ln Y = ∑ ln X k .
1

Generalizând problema 2) pentru un număr finit de variabile, deducem :


⎛ n n ⎞
ln Y ~ N⎜ ∑ m k , ∑σ 2 ⎟,
⎜ 1 k ⎟
⎝ 1 ⎠
n n
deci şi Y este lognormală de parametri m = ∑ m k şi σ =
1
∑σ 1
2
k .

4) Se dau variabilele gamma independente : X1~(a1,b) şi X2~(a2,b). Să se studieze


repartiţia variabilei Y=X1+X2.
Soluţie : Utilizăm funcţiile caracteristice  1 şi  2 ale variabilelor X1 respectiv X2 şi
notăm cu  funcţia caracteristică a lui Y. Avem :
( )
ϕ( t ) = M(e itY ) = M e it (X1 + X 2 ) = M e itX1 ⋅ e itX 2 = M e itX1 ⋅ M e itX 2 ( ) ( ) ( )
Rezultă :
t 2 ( a 12 σ12 + a 22 σ 22 ) t 2σ2
( m1a 1 + m 2 a 2 ) it − mit −
− a1 −a 2 − ( a1 + a 2 )
ϕ( t ) = ϕ1 ( t )ϕ 2 ( t ) = (1 − itb) (1 − itb) = (1 − itb) =e 2
=e 2

Din acest rezultat deducem că Y ~ Γ(a 1 + a 2 , b) .


5) Să se arate că dacă X este o v.a. cu repartiţie exponenţială negativă, atunci :
P[(X x+y)/(X x)]=P[(X y)], ( ) x , y ∈ R *+ .
104 Eroare! Legătură incorectă.

Soluţie : Dacă notăm evenimentele (X x+y)=A, (X x)=B, membrul stâng al
egalităţii devine :
⎛ −
x+y

1 − ⎜1 − e b ⎟⎟
⎜ −
x

y
y
P(B ∩ A) P(A) 1 − P(A) 1 − F( x + y) ⎝ ⎠ e ⋅eb b −
PB (A) = = = = = = = e b
P(B) P(B) 1 − P(B) 1 − F( x ) ⎛ − ⎞
x

x

1 − ⎜⎜1 − e b ⎟⎟ e b
⎝ ⎠
unde : A = (X ≤ x + y) şi B = (X ≤ x ) .
⎛ − ⎞
y

y

Membrul drept este : P(C) = 1 − P(C) = 1 − ⎜⎜1 − e b ⎟⎟ = e b , unde : C = (X > y) şi


⎝ ⎠

C = ( X ≤ y) .
Relaţia demonstrată reprezintă „proprietatea lipsei de memorie” pentru repartiţia
exponenţială negativă, deci aceasta este repartiţia continuă ce corespunde repartiţiei
geometrice discrete şi similar cazului discret este singura repartiţie continuă cu această
proprietate.
Eroare! Legătură incorectă. 105

Capitolul 8 Teoreme şi legi în teoria probabilităţilor

8.1. Inegalitatea lui Cebîşev


Această inegalitate ne dă informaţii asupra distribuţiei unei variabile aleatoare, pe
intervale centrate la media m, cu atât mai bune cu cât dispersia este mai mică.

Teoremă : Fie X o v.a. cu media M(X)=m şi dispersia D(X)=2. Pentru orice * >0
are loc inegalitatea (Cebîşev) :
D( X ) D( X ) (8.1)
P( X − m < ε ) ≥ 1 − sau P( X − m ≥ ε ) ≤ 2
ε 2
ε

Demonstraţie :
Variabila X poate fi discretă sau continuă. Să presupunem că este discretă, luând
valorile xi cu probabilităţile pi, i = 1, n .

Avem :
n
P( X − m ≥ ε ) = P((X − m ≤ −ε) ∪ (X − m ≥ ε) ) = P((X ≤ m − ε) ∪ (X ≥ m + ε) ) = ∑p i
1
x i − m ≥ε

Apoi,

( )
n
D( X ) = M ( X − m) 2 = ∑ (x i − m ) p i ≥ ∑x ∑p ≥ε 2 P( X − m ≥ ε )
2 2
i − m pi ≥ ε2 i
1 x i − m ≥ε x i − m ≥ε

De aici :
D( X ) D( X )
P( X − m ≥ ε ) ≤ sau P( X − m < ε ) ≥ 1 − 2
ε 2
ε
Exemplu :
Să se determine o margine superioară (inferioară) a probabilităţii evenimentului ca o
variabilă X să se abată de la media sa, m, cu cel puţin (cel mult) 3, unde 2=D(X).
Avem :
D( X ) 1
P( X − m ≥ 3σ ) ≤ = ≅ 0,1111 (marginea superioară)
9σ 2 9
D( X ) 8
P( X − m < 3σ ) ≥ 1 − = ≅ 0,8888 (marginea inferioară)
9σ 2 9
106 Eroare! Legătură incorectă.

8.2. Convergenţa şirurilor de variabile aleatoare


Fie (Xn) un şir de v.a. definite pe câmpul de probabilitate {E,K ,P) complet aditiv.
Termenii şirului fiind funcţii de la E la R există diverse modalităţi de a defini convergenţa
lui (Xn), unele din ele cu rol special în teoria probabilităţilor.

8.2.1. Convergenţa în probabilitate

(Xn) converge în probabilitate către o v.a. X, dacă pentru orice numere * >0 şi + >0,
suficient de mici, există un rang natural N(* ,+ ) astfel încât :
P( X n − X ≥ δ ) ≤ ε sau lim P( X n − X ≥ δ) = 0 (8.2)
n →∞

Se notează : X n ⎯⎯→
P
X

De asemenea, spunem că X n ⎯⎯→


P
X , dacă :

(∀)ε > 0, lim P( X n − X < δ) = 1 (8.3)


n →∞

În particular X poate fi o constantă a. Dacă M (X n ) → a , este suficient să arătăm că

D(X n ) → 0 , pentru a demonstra că X n ⎯⎯→


P
a. . Aceasta rezultă imediat din inegalitatea
lui Cebîşev :
D( X n )
P( X n − M (X n ) ≥ ε ) ≤ , adică : X n − M (X n ) ⎯⎯→
P
0 sau X n ⎯⎯→
P
a. .
ε 2

8.2.2. Convergenţa tare (aproape sigură)


Se reţine că, prin definiţie, X şi Y sunt egale aproape sigur, dacă :
P({ω ∈ E X(ω) ≠ Y(ω)}) = 0

Şirul (Xn) converge aproape sigur (sau converge tare) către X dacă :

{ }
P⎛⎜ ω ∈ E lim X n (ω) ≠ X(ω) ⎞⎟ = 0
⎝ n →∞ ⎠
(8.4)

Se notează : X n ⎯⎯→
T
X sau X n ⎯⎯→
a .s.
X.
Definiţia ne spune că mulţimea punctelor de divergenţă are probabilitatea nulă.
Reţinem că limita X nu este unică, dar oricare două limite sunt aproape sigur egale.
Eroare! Legătură incorectă. 107

Xn ⎯
⎯→
T
X implică X n ⎯⎯→
P
X , fapt ce rezultă imediat şi dintr-o altă definiţie :

X n ⎯⎯→
T
X dacă (∀)ε > 0, δ > 0, (∃) N(ε, δ) astfel încât :

⎛ ⎞ (8.5)
P⎜⎜ U ( X n − X ≥ δ )⎟⎟ < ε
⎝ n ≥ N ( ε ,δ ) ⎠
Sau
⎛ ⎞ (8.6)
P⎜⎜ I ( X n − X < δ )⎟⎟ ≥ 1 − ε
⎝ n ≥ N ( ε ,δ ) ⎠

8.2.3. Convergenţa în medie de ordinul r

Şirul (Xn) converge în medie de ordinul r (r 1, r N) către variabila aleatoare X,


dacă există M( Xn-X r) şi dacă :

(
lim M X n − X
n →∞
r
)= 0 (8.7)

μr
Se scrie : X n ⎯⎯→ X.
Cea mai utilizată este convergenţa în medie pătratică (r=2).
Convergenţa în medie de ordinul r implică convergenţa în probabilitate.

8.2.4. Convergenţa în repartiţie

Şirul (Xn) converge în repartiţie către variabila X (şi se scrie X n ⎯⎯→


rep
X ), dacă
şirul funcţiilor de repartiţie (Fn) al variabilelor Xn converge către funcţia de repartiţie F a
variabilei X, în toate punctele de continuitate ale acesteia, adică :
lim Fn ( x 0 ) = F( x 0 ) , x0 – punct de discontinuitate (8.8)
n →∞

Observaţii :

a) X n ⎯⎯→
rep
X în sens Bernoulli
b) În general limita F(x0) nu este unică
c) O teoremă datorată lui Polya stabileşte că dacă F este continuă atunci convergenţa este uniformă.
d) Pentru variabile discrete, convergenţa în repartiţie către o variabilă discretă se exprimă prin
P(Xn=x) P(X=x). Un şir de v.a. discrete poate totuşi să conveargă în repartiţie către o variabilă
continuă.
108 Eroare! Legătură incorectă.

e) Se poate arăta că dacă (Xn) este un şir de variabile de densităţi fn şi X o variabilă de densitate f,
atunci :

X n ⎯⎯→
rep
X implică : fn(x) f(x)
f) Convergenţa în probabilitate antrenează convergenţa în repartiţie.
g) Convergenţa în repartiţie este strâns legată de convergenţa funcţiilor caracteristice, aşa cum

Dacă X n ⎯⎯→ X , atunci


rep
precizează teorema Levy-Cramer-Dugue (fără demonstraţie) :

 n(t)  (t) uniform în toate intervalele finite [-u,u].


Dacă şirul ( n(t)) converge către o funcţie  a cărei parte reală este continuă în origine, atunci 
este o funcţie caracteristică iar şirul (Xn) converge în repartiţie către o variabilă X cu funcţia caracteristică
 .
Implicaţia diferitelor tipuri de convergenţe se poate rezuma în următoarea schemă :
(X μr
⎯⎯→ X⎫ ) (
⎬ ⇒ X n ⎯⎯→ X ⇒ X n ⎯⎯→ X
P rep
) ( )
(X )
n

n ⎯⎯→ X ⎭
T

8.3. Legea numerelor mari. Legi limită


În practică, o serie de fenomene prezintă o anumită regularitate, aşa numita stabilitate
statistică, care se manifestă cu atât mai pregnant cu cât numărul elementelor este mai
mare. Această stabilitate statistică stă la baza aplicării calculului probabilităţilor, în sensul
că acesta se aplică numai pentru fenomenele stabile statistic.
Stabilitatea statistică se manifestă prin aceea că şirul (fn) al frecvenţelor relative se
grupează în jurul unei valori care este tocmai probabilitatea de apariţie a fenomenului
studiat. Studiul frecvenţelor este una din problemele de bază ale teoriei probabilităţilor, în
care am văzut că există diferite moduri de convergenţă ale frecvenţelor :

1) Dacă există constanta p a.î. lim f n = p , spunem că şirul (fn) tinde în mod sigur
n →∞

către p, sau (fn) p în sensul analizei matematice. Evident că lim f n = p implică :


n →∞

( )* >0, ( )N(* ), a.î. ( )n>N(* ) să avem :  fn-p <* .

2) Între (fn), n N* şi p există uneori o relaţie deosebită de cea din analiza


matematică, specifică teoriei probabilităţilor şi anume : inegalitatea  fn-p <*
este un fenomen aleator, deci are o anumită probabilitate. Dacă
lim P( f n − p < ε ) = 1 , spunem că (fn) tinde în probabilitate către p.
n →∞

3) Convergenţa tare (puternică) introdusă de Cantelli, cere ca probabilitatea


evenimentelor :
Eroare! Legătură incorectă. 109

 fn-p <* ,  fn+1-p <* , …,  fn+k-p <*


să tindă către 1 când n tinde la infinit, adică :
lim P( f n +i − p < ε ) = 1, (∀)i = 0, k (8.9)
n →∞

4) În teoria probabilităţilor şi statistică se consideră că o v.a. este determinată dacă i


se cunosc momentele de orice ordin (principiul momentelor).
Asupra unei v.a. X, care schematic se poate reprezenta printr-o urnă Bernoulli, se pot
da mai multe teoreme, toate grupate în aşa-zisa lege a numerelor mari (teorema lui
Bernoulli), care stabileşte legătura dintre frecvenţă ca variabilă aleatoare şi probabilitate :

Teorema lui Bernoulli : Fie # numărul de apariţii ale unui eveniment A în n


experienţe independente (sau probe) şi p probabilitatea de realizare a lui A în fiecare
α
experienţă. Dacă f n = este frecvenţa relativă, atunci şirul (fn)n N converge în
n
probabilitate către p, adică :
lim P( f n − p < ε ) = 1, (∀)ε > 0 (8.10)
n →∞

Demonstraţie :
Se porneşte de la inegalitatea lui Cebîşev şi se ţine seama că pentru evenimentul A
(cazul lui Bernoulli) avem 2=npq :
⎛α ⎞ σ2 npq pq
P( f n − p < ε ) = P⎜⎜ − p < ε ⎟⎟ = P( α − np < nε ) ≥ 1 − 2 2 = 1 − 2 2 = 1 − 2
⎝n ⎠ n ε n ε nε
pq
Dar, 1 − ≤ P( f n − p < ε ) ≤ 1 , ne arată că are loc relaţia (8.10).
nε 2
Teorema lui Poisson, reprezintă o generalizare a teoremei lui Bernoulli :

Fie şirul evenimentelor independente (An) cu probabilităţile teoretice pn (n=1,2,…).


p1 + L + p n
Presupunem că există p = lim .
n →∞ n
n
Dacă fn este frecvenţa de apariţie a evenimentului UA
i =1
i în n probe, atunci fn

converge în probabilitate către p

Demonstraţie :
110 Eroare! Legătură incorectă.

Considerând v.a. cu tabloul X k : ⎛⎜ p1 0 ⎞, q = 1 − p , atunci Y = X 1 + L + X n


⎝ k q k ⎟⎠ k k n
n
este tot o v.a. iar fn este frecvenţa relativă a lui Yn
1 ⎛ n ⎞ 1 n 1 n
M (Yn ) = M⎜ ∑ X k ⎟ = ∑ M ( X k ) = ∑ p k
n ⎝ 1 ⎠ n 1 n 1
Notând cu # numărul de apariţii a lui Yn, avem :
α 1 n
f n − M (Yn ) = − ∑ pk
n n 1
2
n
⎛ 1 n ⎞ n
⎡1 2⎤ 1 n
1 n
D(Yn ) = ∑ ⎜ X k − ∑ p k ⎟ = ∑ ⎢ (X k − p k ) ⎥ = 2 ∑ (X k − pk ) = ∑ D( X
2
n )=
k =1 ⎝ n 1 ⎠ 1 ⎣n ⎦ n 1 n2 1
n
1 1
= 2 ∑ p k q k = 2 (p1 q 1 + L + p n q n ) = σ 2
n 1 n
p1q 1 + L + p n q n
P( f n − p < ε ) ≥ 1 − (Cebîşev)
n 2ε2
Deoarece pk+qk=1, pk 0, qk 0, rezultă :
1 p q +L+ p q n 1
pkqk ≤ şi 1 1 2 2 n n ≤ 2 2 =
4 n ε 4n ε 4nε 2
Deci :
1
1− ≤ P( f n − p < ε ) ≤ 1 şi trecând la limită :
4 nε 2
lim P( f n − p < ε ) = 1 , (8.11)
n →∞

adică (fn) converge în probabilitate către p.

Teorema lui Cantelli (fără demonstraţie), arată că există şi convergenţă tare a şirului
(fn) către p. Astfel, fie şirul (An) de evenimente independente cu probabilităţile p1, p2, …,
p1 + L + p n
pn, … Presupunem că p = lim . În aceste condiţii, avem :
n →∞ n
lim P( f n − p < ε ) = 1, lim P( f n +1 − p < ε ) = 1,K
n →∞ n →∞

K , lim P( f n + k − p < ε ) = 1 (∀)n ∈ N (8.12)


n →∞

Un exemplu de convergenţă tare, datorat lui Octav Onicescu şi Gh. Mihoc este
următorul :
Fie o urnă cu m bile albe şi m bile negre. Se fac extracţii, înlocuind de fiecare dată
bila extrasă printr-o bilă de cealaltă culoare.
Eroare! Legătură incorectă. 111

Notând cu fn frecvenţa relativă a numărului de bile albe ieşite în n extracţii, avem


1
lim f n = .
n →∞ 2
Soluţie :
α
Fie # numărul de bile albe ieşite în n extracţii. Avem f n = . Numărul bilelor albe
n
rămase în urnă după cele n extracţii va fi : (m-# )+(n-# )=m+n-2# .
Avem :
0 m+n-2#  2m,
de unde :
-m n-2#  m,
sau :
m 1 m
− ≤ − fn ≤ ,
2n 2 2n
adică :
1 m
fn − ≤
2 2n
Cum :
m
lim = 0,
n → ∞ 2n

rezultă :
1
lim f n = .
n →∞ 2
Observaţie :
În legătură cu teoremele prezentate se impun următoarele precizări :
a) Teorema lui Bernoulli nu demonstrează că inegalitatea  fn-p <* este satisfăcută pentru n
suficient de mare, ci numai că această inegalitate are şansă să fie realizată experimental. Această
şansă există deoarece P( fn-p <* ) este foarte apropiată de 1.
b) Legea numerelor mari nu este o proprietate a fiecărui şir de variabile aleatoare (nu constituie o
proprietate caracteristică oricăror şiruri de v.a.). Markov a dat un exemplu clasic în care această
lege nu mai acţionează.

Exemplu (Markov) :
112 Eroare! Legătură incorectă.

Se dă o urnă cu două bile, una albă şi una neagră. După fiecare extracţie o bilă extrasă este înlocuită
prin două bile de aceeaşi culoare. După n extracţii, putem extrage 0, 1, 2, …, n bile albe cu probabilităţile
Pn(0), Pn(1), …, Pn(n).
Avem :
k n−k
Pn (k ) = Pn −1 (k − 1) + Pn −1 (k − 1)
n +1 n +1
1 1
Dacă presupunem Pn −1 (k − 1) = , rezultă : Pn ( k ) = (∀)k = 0, n , de unde pentru frecvenţa
n n +1
avem tabloul :

⎛ 0 1 L n ⎞
⎜ 1 1 1 ⎟
⎜ L ⎟
⎝ n +1 n +1 n + 1⎠
Frecvenţele având aceeaşi probabilitate, nu poate fi vorba de nici o convergenţă.
În acest caz nu putem face o previziune asupra frecvenţelor relative după un număr mare de experienţe
şi deci este inutil să facem o statistică a modurilor experimentale de realizare a acestei experienţe.

Teorema lui Cebîşev : Fie n variabile aleatoare X1, …, Xn. Dacă :


a) X k , k = 1, n sunt independente în totalitatea lor

b) M (X k ) = m, (∀)k = 1, n

c) D(X k ) < c, (∀)k = 1, n , c-constantă,


atunci :
⎛1 n ⎞ (8.13)
lim⎜⎜ ∑ X k − m < ε ⎟⎟ = 1
n →∞ n
⎝ 1 ⎠

Demonstraţie :
1 n
Notăm cu X = ∑ X k şi avem :
n 1

1 n 1 n 1
M (X) = ∑ M (X k ) = ∑ m = m ⋅ n = m
n 1 n 1 n
n
1 nc c
D( X ) =
n2
∑ D( X
1
k )≤ =
n2 n
Aplicăm inegalitatea lui Cebîşev :
D( X )
P( X − M (X) < ε ) ≥ 1 − , adică :
ε2
Eroare! Legătură incorectă. 113

⎛1 n ⎞ c
P⎜⎜ ∑ X k − m < ε ⎟⎟ ≥ 1 − 2 , de unde :
⎝n 1 ⎠ nε

⎛1 n ⎞
lim P⎜⎜ ∑ X k − m < ε ⎟⎟ = 1
n →∞
⎝n 1 ⎠
Observaţie :
Teorema lui Cebîşev generalizează teorema lui Bernoulli şi scoate în evidenţă esenţa numerelor mari
care constă în faptul că dacă mărimile ataşate unei colectivităţi de volum mare conţin erori, acestea devin
neglijabile atunci când numărul lor este mare. Ne aflăm în situaţia practică de a considera o singură
variabilă şi anume media aritmetică a acestor erori.

Teorema lui Markov (fără demonstraţie) : Fie (Xn) un şir de v.a. independente două
câte două. Dacă :
a) M(Xk)=Mk şi D(Xk)=Dk, k N sunt finite,
n
1
b) (∃) nlim ∑Mk = M , finită şi
→∞ n 1

n
1
c) lim
n →∞ n
∑D 1
2
k =0,

1 n
atunci şirul (Yn) cu termenul general Yn = ∑ X k converge în probabilitate către M :
n 1

Yn ⎯⎯→
P
M.

8.3.1. Problema limită centrală (teorema Moivre-Laplace)


În cazul distribuţiei binomiale, când volumul selecţiei este foarte mare (n  ),
aceasta poate fi aproximată de distribuţia normală. Acest lucru este riguros enunţat în
teorema Moivre-Laplace (care apare ca o particularizare a teoremei Laplace-Leapunov
cunoscută sub numele de problema limită centrală), adică :

1 ( x − m )2 (8.14)
n−x 1 − ⋅
lim C p q x
n
x
= e 2 σ2
= f ( x ; m, σ 2 ) ,
n →∞
σ 2π
unde f este densitatea repartiţiei normale N(m,2).

Demonstraţie : Utilizăm funcţiile caracteristice. Pentru distribuţia binomială, avem :


 X(t)=(peit+q)n. Dacă în locul v.a. X considerăm v.a. normată :
114 Eroare! Legătură incorectă.

X − m X − np X np
Z= = = − ,
σ npq npq npq

atunci :
n n
⎛ t ⎞ −
itnp
⎛ it
⎞ ⎛ − tp

ϕ Z (t) = ϕ X ⎜ ⎟e npq
= ⎜ pe npq
+ q⎟ ⎜e npq ⎟ =
⎜ npq ⎟ ⎜ ⎟ ⎜ ⎟
⎝ ⎠ ⎝ ⎠ ⎝ ⎠
n n (8.15)
⎛ (1− p ) it −
itp
⎞ ⎛ i iqt
−i
tp

= ⎜ pe npq + qe npq ⎟ = ⎜ pe npq
+ qe npq ⎟
⎜ ⎟ ⎜ ⎟
⎝ ⎠ ⎝ ⎠

Ţinând seama că :
x x2
e ix = 1 + i − + R 2 cu lim R 2 = 0
1! 2! x →0

x x2
e −ix = 1 − i − + R ′2 cu lim R ′2 = 0
1! 2! x →0

Relaţia (8.15), după calcule, devine :


n n
⎛ t2 ⎞ ⎛ t2 ⎞

ϕ Z ( t ) = ⎜1 − ′ ⎟ ⎜
+ R 2 + R 2 ⎟ = ⎜1 − + θ ⎟⎟ , θ = R 2 + R ′2
⎝ 2n ⎠ ⎝ 2n ⎠

Deci :
⎛ t2 ⎞
n ⎜ θ− ⎟
⎡ ⎤ 1 ⎜ 2n ⎟
⎝ ⎠ t2
⎢ ⎛ t 2 ⎞ θ− t 2 ⎥ −
lim ϕ Z ( t ) = lim ⎜⎜1 + θ − ⎟ 2n =e 2
,
n →∞ n →∞ ⎢
⎝ 2n ⎟⎠ ⎥
⎢⎣ ⎦⎥
care este tocmai funcţia caracteristică a distribuţiei N(x;0,1).
Revenind la variabila X=Z+m, obţinem :
σ2t 2 σ2 t 2
1 − 1 itm −
ϕ X ( t ) = ϕ σZ+ m ( t ) = ϕ Z (σt )e itm
= e 2
⋅e itm
= e 2

2π 2π
care este funcţia caracteristică a distribuţiei normale.
Observaţie :
Distribuţia binomială se consideră bine aproximată de distribuţia normală dacă 2=npq>20 deşi în
practică se ia doar npq 3, ceea ce corespunde unor valori pentru n>80 respectiv în practică n 12.
Exemplu : Probabilitatea ca într-o unitate economică consumul de energie electrică să
fie depăşit într-o zi este p=0,3 (deci q=0,7). Să se calculeze probabilitatea ca din cele 10
zile ale unei decade fixate, consumul să fie depăşit în 4 zile.
Soluţie :
Eroare! Legătură incorectă. 115

Numărul de zile în care consumul este depăşit determină o v.a. binomială X, cu


tabloul de distribuţie :

X : ⎛⎜ k
k ⎞ ; m = 3, σ 2 = 2,1
10 − k ⎟
C
⎝ 10 (0,3) k
(0,7 ) ⎠ k = 0,10
Folosind teorema Moivre-Laplace, avem :
( 4−m)2 ( 4 − 3) 2
1 − 1 − N(z;0,1) N(0,7;0,1) 0,312
P ( k = 4) = = = = ≅ ≅ 0,2153
2 4, 2

e e
σ 2π σ 2π σ 1,449 1,449
k−m 1
şi z = = ≅ 0,7 .
σ 1,449

Observând că P(k = 4) = C10


4
(0,3) 4 (0,7) 6 = K = 0,2001 , se constată o abatere egală

cu : 0,2153-0,2001=0,0152.
Dacă s-ar considera 3 decade (o lună de zile) s-ar obţine o abatere egală cu 0,0007.

8.3.2. Teorema limită centrală a lui Leapunov (fără demonstraţie)


Fie (Xn) un şir de v.a. independente. Presupunem că există M(Xk)=Mk, D(Xk)=Dk>0,
M[ Xk-Mk 3]=H, k N şi notăm :
n n
Yn n
Yn = ∑ X k , S n = ∑ D 2k , Yn* = , Ln = ∑H 3
k
1 1 Sn 1

şi cu Fn*(x) funcţia de repartiţie a variabilei aleatoare Yn*.

Dacă este verificată condiţia lui Leapunov,


Ln (8.16)
lim =0
n →∞ S
n

Atunci :

1
x

u2 (10.9)
lim F ( x ) = ∫e du , (∀) x ∈ R
* 2
n
n →∞
2π −∞

Convergenţa către repartiţia Poisson. Fie Xn1, Xn2, …, Xnk, … un şir de v.a.
independente care iau valori întregi nenegative. Să notăm :
P(Xnk=h)=pnk(h); k=1, 2, …, kn ; n N, h N*
∞ kn

∑ p nk (h ) = H nk ; Yn = ∑ X nk
h =2 k =1

şi să presupunem că sunt îndeplinite condiţiile :


116 Eroare! Legătură incorectă.

kn
a) lim ∑ p nk (1) = 0
n →∞
k =1

b) lim ⎡ max (1 − p nk (0) )⎤ = 0


n →∞ ⎢
⎣1≤ k ≤ k n ⎥⎦
kn
c) lim ∑ H nk = 0
n →∞
k =1

Funcţia de repartiţie a v.a. Yn converge către funcţia de repartiţie a unei v.a.


repartizată Poisson, cu valoarea medie  . (Se demonstrează că funcţia generatoare a v.a.
Yn converge către funcţia generatoare G(z)=e (z-1) corespunzătoare repartiţiei Poisson).

8.4. Probleme rezolvate


1) Să se arate că nu totdeauna limita unui şir de funcţii de repartiţie este tot o funcţie
de repartiţie.
Soluţie :
Fie Xn~U(-n,n), n 1 (uniforme pe (-n,n)). Notăm cu fn densitatea de repartiţie a lui
Xn şi cu Fn funcţia sa de repartiţie. Vom calcula limFn(x).
⎧1
⎪ , x ∈ (−n , n )
Ştim că f ( x ) = ⎨ 2n , deci :
⎪⎩ 0, x ∉ (−n , n )

⎧ 0 , x ≤ −n
⎪⎪ 1 x x+n
Fn ( x ) = ⎨ ∫ dt =
2n
, x ∈ (−n, n ]
⎪ 2n − n
⎪⎩ 1 , x>n

1 1
Atunci lim Fn ( x ) = , (∀)x ∈ R , dar F( x ) = , (∀)x ∈ R nu este o funcţie de
n →∞ 2 2
repartiţie.
⎛ 0 n⎞
2) Fie şirul de v.a. (Xn)n 1 unde : X n : ⎜ 1 1 ⎟ şi variabila X=0 (aproape sigur).
⎜1 − ⎟
⎝ n n⎠
Să se arate că şirul (Xn) converge în repartiţie la X şi să se studieze convergenţa
şirului momentelor (Mk(Xn))k 1.
Soluţie :
Fie Fn funcţia de repartiţie a lui Xn. Ea are forma :
Eroare! Legătură incorectă. 117

⎧ 0 , x≤0
⎪ 1
Fn ( x ) = ⎨1 − , x ∈ (0, n ]
⎪ n
⎩ 1 , x>n

0 , x≤0
Deci : F( x ) = lim Fn ( x ) = ⎧⎨ , este tocmai funcţia de repartiţie a v.a. X=0
n →∞ ⎩ , x>0
1

(a.s), deci (Xn) converge în repartiţie la X.


⎛ 0 nk ⎞
Apoi, avem : X ⎜ k
1 1⎟
⎜1 −n

⎝ n n⎠
1
şi deci : M k (X n ) = n k = n k −1 , (∀)k ≥ 1. Mai observăm că :
n
⎧⎪lim 1 = 1 , k =1
lim M k (X n ) = ⎨n →∞ k −1
n →∞
⎪⎩nlim n = +∞ , k ≥ 2
→∞

în timp ce Mk(X)=0, (∀)k ∈ N .


3) Un post de transformare trebuie să alimenteze o reţea electrică cu 20000 becuri.
Probabilitatea conectării unui bec într-o seară de iarnă (perioada de vârf în
consumul de energie electrică) este de 0,65. Să se facă analiza economică
necesară proiectării postului de transformare.
Soluţie :
Se pot considera variante diferite :
a) Determinarea capacităţii astfel ca toate cele 20000 de becuri să aibă asigurat în
orice moment consumul de energie electrică.
b) Determinarea capacităţii astfel încât cu o probabilitate dată, suficient de mare, să
se asigure energia aferentă consumului obişnuit.
Notăm cu X v.a. ce reprezintă numărul de becuri ce pot fi conectate în diferite seri ale
iernii. Distribuţia lui X poate fi considerată binomială, cu parametrii : n=2000 şi p=0,65.
Atunci, avem :
M(X)=m=np=13000 şi σ = D(X) = npq ≅ 67

Folosim inegalitatea lui Cebîşev :


σ2
P( X − 13000 < ε ) ≥ 1 − ,
ε2
în care presupunem * =k .
118 Eroare! Legătură incorectă.

Dacă k=3, rezultă : * =3  =201 şi P( X − 13000 < 201) ≥


8
≅ 0,89 .
9

Aceasta, ne spune că pentru o capacitate corespunzătoare la 13201 becuri medii, cu o


probabilitate de cel puţin 89% consumul asigurat va fi normal.

Dacă k=4, rezultă : * =4  =268 şi P( X − 13000 < 268) ≥


15
≅ 0,94 , adică pentru o
16
capacitate corespunzătoare în medie la 13268 de becuri cu o probabilitate de cel puţin
94% consumul asigurat va fi corespunzător.
Determinarea capacităţii postului de transformare se poate face însă şi astfel încât, cu
probabilitatea foarte bună de 0,999, consumul asigurat să fie normal. Numărul n în acest
caz fiind mare, putem folosi aproximarea prin distribuţia normală.
Calculăm valoarea x0 pentru care are loc evenimentul X<x0 cu probabilitatea cerută :
1 ⎛x − m⎞
P(X < x 0 ) = + Φ⎜ 0 ⎟ = 0,999 , sau :
2 ⎝ σ ⎠
1 x − 13000
+ Φ (20) = 0,999 unde z 0 = 0 . Deci & (20)=0,499.
2 67
Din tabele, pentru & (20)=0,499 rezultă z0=3,09, de unde :
x0=3,09 67+13000=13207. Acest număr este numit „coeficient de simultaneitate” şi
dimensionarea postului de transformare se recomandă să se facă pentru acest număr de
consumatori.
Pentru numărul de becuri n=2000, rămâne capacitatea corespunzătoare la : 20000-
13207=6793 de becuri, nefolosită cu probabilitatea 0,999.
4) Într-un magazin sunt serviţi zilnic n=15000 potenţiali cumpărători ai unui articol
perisabil. Din datele statistice, probabilitatea ca un client să cumpere articolul
respectiv într-o zi este p=0,85. Care este probabilitatea ca numărul celor ce vor
cumpăra marfa să fie cuprins în intervalul (12600,12900) ?
Soluţie :
Notăm cu X v.a. care reprezintă numărul de cumpărători ai articolului respectiv într-o
zi. Deoarece p este constantă, X are o distribuţie binomială şi pentru că n este mare,
această distribuţie se poate aproxima prin distribuţia normală.
Avem :
m=np=12750 şi σ = npq ≅ 44 .

Faţă de media m, intervalul (12600,12900) este simetric :


Eroare! Legătură incorectă. 119

12750-150=12600 şi 12750+150=12900, deci :


12600<X<12900 - -150<X-12750<150.

Putem aplica inegalitatea lui Cebîşev, cu * =150, adică :


σ2
P( X − m < ε ) ≥ 1 − ⇔ P( X − 12750 < 150) ≥ 1 − 0,086 = 0,914
ε2

Prin aproximare cu distribuţia normală, obţinem :


⎛ε⎞
P( X − m < ε ) = 2Φ⎜ ⎟, adică :
⎝σ⎠
⎛ 150 ⎞
P( X − 12750 < 150) = 2Φ⎜ ⎟ = 2Φ(3,4 ) = 2 ⋅ 0,499 = 0,998
⎝ 44 ⎠
Acest rezultat este mai avantajos decât cel obţinut prin inegalitatea lui Cebîşev, cu
alte cuvinte coeficientul de siguranţă este cuprins în intervalul (0,914;0,998) sau între
91,4% şi 99,8%.
5) Fie (Xn,Yn) un şir de v.a. independente, cu valori în R2, identic realizabile. Dacă :
0 < a = M (X i ) < ∞, D(X i ) < c, i = 1, n , şi

0 < b = M (Yi ) < ∞, D(Yi ) < d, i = 1, n ,


să se arate că variabila :
X1 + K + X n
Z= converge aproape sigur către a/b.
Y1 + K + Yn
Soluţie :
Putem scrie pe Z astfel :
X1 + K + X n n
Z= ⋅
n Y1 + K + Yn
Din legea numerelor mari (teorema lui Cebîşev) rezultă :
X 1 + K + X n a .s. Y + K + Yn a .s.
⎯⎯→ a şi 1 ⎯⎯→ b,
n n
a
deci : Z ⎯⎯→
a .s.

b
120 Eroare! Legătură incorectă.

Capitolul 9 Procese stochastic. Elemente de teoria fiabilităţii.

9.1. Noţiunea de proces stochastic

În aplicaţiile teoriei probabilităţilor, deseori întâlnim şi variabile aleatoare care depind


de unul sau mai mulţi parametri. De exemplu, tensiunea la anodul unei lămpi cu
incandescenţă, la un moment dat, este o v.a. depinzând de timp. Numeroase exemple se
întâlnesc în teoria fiabilităţii privind caracteristicile unor aparate sau elemente în stare de
funcţionare.
Teoria proceselor stochastice se ocupă de studiul familiilor de v.a. definite pe un
acelaşi câmp de probabilitate {E,K ,P}. Notăm cu E mulţimea tuturor v.a. cu valori reale,
definite pe E, iar cu T o mulţime oarecare.

Definiţia 1 : Fie E={⌧  ⌧ :E R} şi T arbitrară. Se numeşte proces stochastic (sau


aleator), cu mulţimea de parametri T, o aplicaţie ⌧ :T E, unde ⌧ (t)=⌧ t E, t T.

Deci, un proces stochastic este o funcţie ⌧ (e,t), e E şi t T şi se mai notează


{⌧ t(e)}t T, punându-se în evidenţă că el nu reprezintă altceva decât o familie de variabile
aleatoare. Dacă T/ N se foloseşte termenul de lanţ în loc de proces. Lanţul este aşadar un
şir de v.a. {⌧ n(e)}n N.
Pentru fiecare t T, ⌧ t(e) este o v.a. definită pe câmpul {E,K ,P} iar pentru fiecare
realizare e E , ⌧ (e,*)reprezintă o funcţie definită pe T, numită traiectoria procesului,
corespunzătoare realizării e.
Admitem că variabilele aleatoare din ⌧ descriu starea unui anumit sistem şi că
mulţimea parametrilor T reprezintă timpul. În acest fel, un proces stochastic reflectă
evoluţia în timp a unui sistem dat. Mulţimea T se poate considera fie (- , ), fie [0, ),
fie un segment [0,1]. În toate aceste cazuri, vom avea un proces stochastic cu timp
continuu.
Dacă T constă numai dintr-o mulţime numărabilă de elemente, cum ar fi Z sau N,
termenul de proces se înlocuieşte cu cel de lanţ, iar notaţia folosită este cea indicială (ca
la şiruri) : …, ⌧ -n,…, ⌧ -1, ⌧ 0, ⌧ 1, …, ⌧ n ,…(n Z) respectiv ⌧ 1, ⌧ 2 , …, ⌧ n ,…(n
N).
Vom nota cu B, -algebra mulţimilor boreliene din R, adică cea mai mică -algebră ce
conţine familia tuturor intervalelor din R. Fie X mulţimea v.a. {⌧ t(e)}, ale unui proces
Eroare! Legătură incorectă. 121

stochastic. Vom numi elementele x X, stări, iar X mulţimea stărilor procesului


stochastic considerat.
Evoluţia unui proces stochastic, descrisă în termeni probabilistici, presupune atât
cunoaşterea probabilităţii tuturor evenimentelor de forma : „la momentul t, procesul se
găseşte într-o stare ⌧ t(e), care aparţine mulţimii A0 B”, cât şi probabilitatea de a avea
simultan un număr oarecare de astfel de evenimente pentru diverse momente ti (1 i n)
şi diverse mulţimi Ai B. Cu alte cuvinte, înseamnă a se da probabilităţile :
( )
P ξ t1 (e) ∈ A 1 , K , ξ t n (e) ∈ A n pentru orice n N, orice ti T (1 i n) şi orice Ai B.

Cunoaşterea acestor probabilităţi revine la cunoaşterea funcţiilor de repartiţie n-


dimensionale :

( )
Ft1Kt n (x 1 , K , x n ) = P ξ t1 < x 1 , K , ξ t n < x n , (∀)n ∈ N, t i ∈ T, x i ∈ R (9.1)

Dacă observăm procesul aleator la momentul t0, putem considera că cunoaştem


„trecutul” său pentru t t0 şi ceea ce nu ştim şi încercăm să prevedem este „viitorul” său.
În mod firesc, vom fi conduşi la probabilităţi condiţionate, de forma :

( )
P ξ t (e) ∈ A ξ t i , i = 1,2, K.n , (9.2)

unde t1<t2<…<tn<t sunt bine determinate dacă cunoaştem probabilităţile :


(
P ξ t1 ∈ A 1 , K , ξ t n ∈ A n .)
Întâlnim adesea, în natură şi în viaţa social-economică, procese care sunt astfel încât
cunoaşterea unei stări a sistemului la un moment oarecare t0 nu determină încă în mod
unic stările acestuia în următoarele momente de timp, ci determină probabilitatea ca
sistemul să ajungă într-una din stările unei mulţimi de stări a sistemului.
Criteriul cel mai important în clasificarea proceselor stochastice, se referă la felul
cum sunt legate între ele variabilele aleatoare ⌧ t atunci când t parcurge mulţimea
parametrilor T. Cea mai importantă clasă de procese stochastice, teoretic şi practic, o
reprezintă procesele Markov. Dacă probabilităţile condiţionate (9.2) verifică condiţia :

( )
P ξ t (e) ∈ A ξ t i , i = 1,2, K.n = P(ξ t (e) ∈ A ) , (9.3)

aproape sigur pentru orice n N, orice t1<…<tn<t şi orice A B, obţinerea unui caz
particular foarte important de proces aleator, când probabilităţile condiţionate se reduc la
cele absolute, adică cunoaşterea trecutului procesului nu influenţează cu nimic viitorul
său.
122 Eroare! Legătură incorectă.

Definiţia 2 : Un proces Markov este un proces aleator care verifică proprietatea lui
Markov : ( )n N şi ( )t1<t2<…<tn<t, avem :
( ) ( )
P ξ t (e) ∈ A ξ t i , i = 1,2, K.n = P ξ t (e) ∈ A ξ t n , aproape sigur (9.4)

La baza noţiunii de proces Markov stă deci imaginea pe care o avem despre un sistem
dinamic fără postacţiune, adică un sistem a cărei evoluţie în viitor (la momentul t) nu
depinde decât de starea sa precedentă (la momentul tn) fără a depinde de ceea ce s-a
petrecut cu el în trecut (momentele t1, t2, …, tn-1).
De exemplu, în mecanică, cunoaşterea poziţiei unei particule nu este suficientă pentru
a determina comportarea sa viitoare, chiar dacă se cunoaşte sistemul de forţe ce
acţionează asupra ei. În schimb, dacă prin starea particulei înţelegem nu numai poziţia ei
ci şi viteza sa, atunci evoluţia ei este complet determinată.
În acest sens, orice proces stochastic se poate transforma într-un proces de tip
markovian, complicând suficient stările, astfel încât ele să înglobeze, la orice moment,
întreaga istorie a procesului.

9.2. Elemente de teoria fiabilităţii


Teoria fiabilităţii (teoria siguranţei în funcţionare) are ca scop aflarea legilor de
apariţie a defecţiunilor sistemelor (echipamente sau utilaje). Fiabilitatea unui sistem este
probabilitatea ca acestea să-şi îndeplinească funcţiile cu anumite performanţe şi fără
defecţiuni, într-un anumit interval de timp şi în condiţii de exploatare date.
Prin calitatea sistemului, se înţelege mulţimea proprietăţilor ce definesc gradul de
utilitate în exploatare şi, atunci, fiabilitatea sistemului este capacitatea sa de a-şi
conserva calitatea în condiţii determinate de exploatare. Aici, noţiunii de sistem îi dăm
un sens foarte larg : întreprindere, instalaţii şi echipamente, aparatură industrială de
măsură şi control, sisteme de calcul, etc.
Problemele de teoria fiabilităţii se încadrează de cele mai multe ori în probleme cu
caracter economic. Cunoaşterea legii de îmbătrânire a unor utilaje şi deci a gradului lor de
uzură în timp este utilă pentru alegerea unor momente cât mai potrivite pentru înlocuirea
acestora.
Eroare! Legătură incorectă. 123

9.2.1. Timpul de funcţionare până la prima defecţiune.


O parte indivizibilă a unui sistem, considerată ca entitate de sine stătătoare, o vom
numi element. În cazul unor echipamente sau a unor elemente, perioada de timp de la
darea în funcţiune până la apariţia avariei coincide cu durata de viaţă a elementului
respectiv (de exemplu becurile care nu se mai pot repara).
Să considerăm ca moment iniţial momentul în care un element este pus în starea de
funcţionare şi să notăm cu ⌧ timpul de funcţionare până la apariţia defecţiunii. Prin timp
de funcţionare înţelegem perioada de funcţionare efectivă, fără a considera întreruperile
deliberate. ⌧ este o variabilă aleatoare a cărei funcţie de repartiţie va fi : F(t)=P(⌧ <t),
t>0.
Presupunem că F(t) este derivabilă oricare ar fi t>0 şi notăm F’(t)= (t).
Probabilitatea ca elementul să fie în stare de funcţionare la momentul t (sau să funcţioneze
fără defecţiuni un timp mai lung decât t) este :
& (t)=P(⌧ >t)=1-F(t), t>0 (9.5)
unde & (t) este funcţia de siguranţă (continuă şi derivabilă în orice t>0, & (0)=1,
lim Φ ( t ) = 0 ).
t →∞

Valoarea medie a timpului de funcţionare fără defectare este :


∞ ∞ (9.6)
m = M (ξ) = ∫ t ⋅ ρ( t )dt = ∫ Φ ( t )dt ,
0 0

iar dispersia lui ⌧ :


∞ ∞ (9.7)
D(ξ) = ∫ ( t − m) ρ( t )dt = 2 ∫ tΦ ( t )dt − m 2
2

0 0

În practică întâlnim adesea exemple de prevenire a avariilor. În acest caz se stabileşte


pe bază de calcule şi experienţă o limită de funcţionare t0 (de exemplu cazanele de la
instalaţia de încălzire la locomotive, vapoare, etc.). Dacă ⌧ ar fi durata de viaţă al unui
astfel de echipament, fără impunerea unei durate maxime de funcţionare, atunci adevărata
valoare a acestei durate va fi : ⌧ *=min(⌧ ,t0).
Dacă F* este funcţia de repartiţie a lui ⌧ *
se vede că pentru orice t>0 avem :
⎧F( t ), t ≤ t0 (9.8)
F * ( t ) = P (ξ * < t ) = ⎨
⎩ 1, t > t0
⎧Φ ( t ), t ≤ t0 (9.9)
Φ * (t ) = 1 − F* (t ) = ⎨
⎩ 0, t > t0
t0 t0
(9.10)
m = ∫ Φ ( t )dt = ∫ Φ ( t )dt
* *

0 0
124 Eroare! Legătură incorectă.

t0
(9.11)
D(ξ) = 2 ∫ tΦ ( t )dt − m *
2

9.2.2. Funcţia risc de defectare.


Să considerăm evenimentele :
A - „elementul funcţionează fără să se defecteze până la momentul t”
B - „elementul nu se defectează între momentele t şi t+h”. Apoi :
P(A ∩ B) P(ξ > t + h ) Φ ( t + h ) (9.12)
P(B / A) = = = ,
P(A) P (ξ > t ) Φ(t )

adică : „dacă elementul nu se defectează până la momentul t, probabilitatea ca el să nu se


defecteze până la momentul (t+h) este P(B/A)”. Înseamnă că, în aceleaşi ipoteze,
probabilitatea ca el să se defecteze înainte de momentul t+h este :
Φ(t + h ) Φ( t ) − Φ( t + h ) (9.13)
1 − P( B / A ) = 1 − =
Φ( t ) Φ(t )

Dacă h este suficient de mic, atunci : & (t)-& (t+h) -h & ’(t) şi (13.9) devine :

(
P B/A ≈ − ) Φ ′( t )
Φ( t )
h = λ ( t ) ⋅ h; λ = −
Φ′
Φ
,
(9.14)

unde  (t) este funcţia risc de defectare.


În teoria mortalităţii această funcţie se numeşte funcţie de supravieţuire. Graficul
funcţiei empirice „risc de defectare”, obţinut prin prelucrarea datelor statistice este de
forma prezentată în fig. 9.1.
 (t
)

t
0 I II III

Fig.9.1.
Prima perioadă (I) din figură arată că riscul descreşte în timp, adică acesta este mai
mic după trecerea unui timp de la darea în exploatare. Aceasta este perioada rodajului.
Eroare! Legătură incorectă. 125

Perioada a II-a este perioada de funcţionare normală în care riscul se stabilizează şi nu


depinde de trecerea timpului. Ultima perioadă (III) este perioada de îmbătrânire a
echipamentului, în care sub influenţa unor factori fizici şi chimici – elementele se
degradează ireversibil şi riscul de defectare creşte cu trecerea timpului.
Dacă  (t)>0, din relaţia ce-l defineşte (vezi 9.14), rezultă :
Φ ( t ) = e − λt , t > 0 , (9.15)

iar funcţia de repartiţie a perioadei de funcţionare fără defectare este :


F( t ) = 1 − Φ ( t ) = 1 − e − λt , t > 0 (9.16)

adică are o repartiţie exponenţială cu parametrul  .


Această lege de fiabilitate nu este universală. În practică întâlnim frecvent situaţii în
care datele experimentale nu concordă cu modelul de mai sus.
În teoria fiabilităţii apare frecvent repartiţia Weibull. Dacă ⌧ are o distribuţie
Weibull cu parametri  şi # , adică funcţia de repartiţie este :
α
F( t ) = 1 − e − μt , t > 0 , (9.17)
α
atunci funcţia de siguranţă corespunzătoare este Φ ( t ) = e − μt şi deci îi va corespunde
funcţia risc de defectare :  (t)= # t# -1.
Repartiţia Weibull - depinzând de doi parametri - este o lege mai generală, ea putând
cuprinde un număr mult mai mare de cazuri concrete decât repartiţia exponenţială.
Dacă riscul de defectare ( ) este proporţional cu timpul, respectiv  (t)=2 t,  >0
(constant), atunci :
Φ' ( t ) 2 (9.18)
= −2μt ; Φ (0) = 1 şi Φ ( t ) = e − μt
Φ(t)
Deci suntem în cazul unei legi Weibull de parametrii  şi 2.

9.2.3. Siguranţa sistemelor cu elemente legate în serie


Considerăm un sistem format din elemente a căror siguranţă în funcţionare este
cunoscută şi presupunem că elementele se defectează independent unul de altul.
Aceste elemente sunt legate în serie fiabilistic dacă prin defectarea sistemului
înţelegem defectarea a unui element (oricare). Dacă sistemul este compus din n elemente
şi timpul potenţial de funcţionare fără defectare a fiecăruia din aceste elemente este
respectiv ⌧ 1, ⌧ 2,…,⌧ n iar ⌧ este timpul corespunzător sistemului, atunci : ⌧ =inf{⌧ 1,
⌧ 2,…,⌧ n}. În acest caz, dacă  este funcţia de siguranţă a sistemului şi
 k(k=1,2,…,n) sunt funcţiile de siguranţă ale elementelor, avem :
126 Eroare! Legătură incorectă.

Φ ( t ) = P (ξ > t ) = P (ξ1 > t , K , ξ n > t ) = P (ξ1 > t ) K P (ξ n > t ) = Φ 1 ( t ) K Φ n ( t ) (13.15)


Logaritmând şi înmulţind cu (-1), obţinem :
− ln Φ ( t ) = − ln Φ 1 ( t ) − K − ln Φ n ( t )

Derivând în raport cu t, deducem :


n (13.16)
λ( t ) = λ1 ( t ) + K + λ n ( t ) = ∑ λ k ( t )
1

Respectiv : Riscul de defectare a sistemului este egal cu suma riscurilor de defectare


a elementelor înseriate.

9.2.4. Siguranţa sistemelor cu elemente legate în paralel


Considerăm un sistem format din n elemente care se defectează independent unul de
altul. Vom presupune că sistemul se defectează numai dacă se defectează toate elementele
sale. Dacă păstrăm notaţiile de mai sus, putem scrie : ⌧ =sup{⌧ 1, ⌧ 2,…,⌧ n} şi
respectiv .
F( t ) = P(ξ < t ) = P(ξ1 < t , K , ξ n < t ) = P(ξ1 < t ) K P(ξ n < t ) = F1 ( t ) K Fn ( t )
unde Fk(t) ,( k=1,2,…,n) reprezintă funcţiile de repartiţie ale lui ⌧ k.
Eroare! Legătură incorectă. 127

STATISTICĂ MATEMATICĂ

Capitolul 10 Teoria selecţiei. Teoria estimaţiei.


Ajustarea legilor de distribuţie.

10.1. Teoria selecţiei

10.1.1. Noţiuni introductive.


Statistica matematică este partea matematicii aplicate care se ocupă cu culegerea datelor,
analiza şi interpretarea probabilistică a acestora. Tehnicile care se folosesc scot în evidenţă
caracteristicile şi diferenţele dintre membrii unei colectivităţi (populaţii), adică ai mulţimii C,
sub aspectul parametrilor (proprietăţilor) care intervin.
Presupunem că studiem colectivitatea din punctul de vedere al unei singure proprietăţi.
Notăm cu N-volumul colectivităţii (numărul unităţilor care compun colectivitatea), care poate
fi şi infinit. Deoarece proprietatea ce se studiază diferă de la individ la individ, variaţia ei
fiind aleatoare, se va asimila proprietatea cu o variabilă aleatoare, x, teoretică, definită pe
colectivitatea C. Caracteristicile numerice ale variabilei x se vor numi caracteristici teoretice:
m=M(x) - media teoretică, D=σ2=D(x) - dispersia teoretică; Mr=M(xr) - momentul teoretic de
ordinul r, μr=M((x-m)r) - momentul centrat teoretic de ordinul r, deci sunt calculate ca în
teoria probabilităţilor.
Colectivitatea C poate fi studiată sau cercetată în întregime, de obicei sub formă de
recensământ, dar de cele mai multe ori se face o cercetare parţial-selectivă, când sunt
examinate numai anumite elemente ale colectivităţii, care formează o subcolectivitate
(subpopulaţie) S. Notăm cu n volumul subcolectivităţii, iar variabila aleatoare asociată
acesteia cu x* şi o numim variabilă empirică sau variabilă de selecţie.
Pentru ca informaţiile obţinute la cercetarea lui S să poată fi extinse şi asupra lui C este
necesar ca S să fie o subcolectivitate reprezentativă, adică în ea să se reflecte proprietăţile
generale ale colectivităţii C.
Constituirea lui S se face prin selecţie (sondaj), care este cu revenire (dacă după
examinare elementul revine în C) sau fără revenire (dacă elementul cercetat nu revine în C).
În primul caz, selecţia este repetată, de volum n, iar în cel de-al doilea caz avem o selecţie
nerepetată, de volum n.
128 Eroare! Legătură incorectă.

Observaţie: Dacă volumul N al colectivităţii C este mare dar finit, iar volumul n al subcolectivităţii S
este suficient de mic, deosebirea între cele două tipuri de selecţii este foarte mică iar în aplicaţii selecţiile
nerepetate se pot considera ca selecţii repetate. De aceea ne vom opri doar asupra selecţiilor repetate (cu
revenire). Pentru m şi D din cazul selecţiei repetate şi respectiv m1, D1 din cazul selecţiei nerepetate, există
relaţiile:

m1 = m (mediile sunt aceleaşi)

N-n
D1 = D (relaţia dintre dispersii)
N -1
N-n
Dacă n<<N, atunci raportul ≈ 1 şi în acest caz avem o „identitate” între rezultatele
N -1
din cadrul celor două tipuri de selecţii.
Selecţia poate fi simplă sau stratificată. Este simplă când se aplică unei colectivităţi
omogene formată din elemente care au caracteristica studiată în aceeaşi proporţie şi
stratificată dacă se aplică unei colectivităţi neomogene care se împarte în subcolectivităţi
omogene.
Notăm cu x1, ... ,xn valorile variabilei teoretice x pentru fiecare element ce formează S,
astfel încât variabila empirică x* va avea tabloul de distribuţie:

⎡x1 K x n ⎤
⎢ ⎥
x* : ⎢ ⎥
⎢ 1 K 1⎥
⎣⎢ n n ⎥⎦

Dacă se face o nouă selecţie, datorită caracterului său aleator, variabila aleatoare
empirică x* poate să aibă alte valori ceea ce ne determină să considerăm valorile sale x1,
... ,xn ca fiind de fapt variabile aleatoare care sunt identice din punct de vedere
probabilistic, cu variabila teoretică x. Această afirmaţie ne permite să scriem egalităţile:

M(x j ) = M(x) , D(x j ) = D(x) , M(x rj ) = M(x r ) , M((x j - m) r ) = M((x - m) r )

Caracteristicile de selecţie sunt:

1 n 1 n
* *
m =M( x )= ∑ xj , D = D( x * )=
*
∑ ( x j - m* )2
n j=1 n j=1

1 n r 1 n
* *
M r = M(x ) =
r

∑xj ,μ *
r = M(( x* - m* )r ) = ∑ ( x j - m* )r
n j=1 n j=1
Eroare! Legătură incorectă. 129

Observaţie: Variabila empirică x* se poate considera scrisă prin intermediul unui tablou de distribuţie
de forma:

⎛ x1 K x k ⎞
x* : ⎜ ⎟,
⎜n K n ⎟
⎝ 1 k ⎠

(
unde x i i = 1, n ) sunt valorile distincte ale variabilei teoretice x iar n i i = 1, n ( ) sunt frecvenţele

absolute cu care apar valorile xi în cazul unei selecţii de volum n. Deci n=n1+ ... +nk. În acest caz, pentru
caracteristicile de selecţie avem relaţiile :

1 k 1 k
∑ i ∑ (xi - m* ) ni ,
* * * * 2
m = M( x ) = x i n , D = D( x ) =
n i =1 n i =1
1 k r 1 k
∑ μ
* * r
∑ ( x i - m* )r n i
r
* *
M r = M( x* ) = x i n i , r = M(( x - m ) ) =
n i =1 n i =1
Dacă variabila teoretică x este discretă respectiv continuă şi dacă :
- probabilităţile pi respectiv funcţia de densitate f depind de s parametri λ1, λ2, ... , λs ;
- se cunoaşte distribuţia în funcţie de parametri.;
atunci suntem în cazul unei legi specificate.
Cu ajutorul selecţiei se vor determina parametri ce caracterizează distribuţia.

10.1.2. Funcţia de repartiţie de selecţie


Considerăm variabila teoretică x, având funcţia de repartiţie F şi presupunem că am
efectuat o selecţie de volum n obţinând valorile x1, ... , xn.
Fie n(x0) numărul observaţiilor în care a apărut o valoare a lui x*<x0.

Se numeşte funcţie de repartiţie de selecţie funcţia Fn* : R → [0,1] , definită de relaţia :

1
Fn* (x 0 ) = n (x 0 )
n

Exemplu:
Să se determine Fn*(x0) în cazul unei selecţii de volum n=100 asupra unei variabile
aleatoare x cu tabloul de repartiţie:

⎡ 0 1 6 9⎤
⎢ ⎥
⎣30 15 10 45⎦
4
Observăm că n = ∑ n k = 30 + 15 + 10 + 45 = 100 . Funcţia de repartiţie de selecţie :
1
130 Eroare! Legătură incorectă.

⎧ 0 , x≤0
⎪ 30
⎪ = 0,3 , 0 < x ≤1
⎪ 100
*
⎪ 45 = 0,45 , 1< x ≤ 6
F100 (x) = ⎨100
⎪ 55
⎪100 = 0,55 , 6< x≤9
⎪ 100
⎪ =1 , x >9
⎩ 100

Fie x o variabilă teoretică cu funcţia de repartiţie F(x). Efectuăm un sondaj de volum


n căruia îi corespunde funcţia de repartiţie de selecţie Fn*(x). Notăm cu
*
d n = sup | Fn (x) - F(x) | .
x∈R

Are loc următoarea:

Teoremă : Dacă volumul selecţiei n N atunci d n ⎯⎯→


P
0 , adică lim P(d n = 0) = 1 ,
n→N

(teorema lui Glivenko (1896-1940)).

Această teoremă este fundamentală în statistica matematică deoarece furnizează


justificarea teoretică a utilizării metodei selecţiei şi permite acceptarea principiului de
bază al teoriei selecţiei şi anume :
Variabila de selecţie converge în lege către variabila teoretică, iar caracteristicile
numerice ale variabilei de selecţie converg în probabilitate către caracteristicile analoage
ale variabilei teoretice.

10.2 Teoria estimaţiei

10.2.1. Estimatori punctuali.


1. Estimator consistent.
Fie x variabila aleatoare cu care s-a asimilat proprietatea cercetată la o colectivitate C şi
x* variabila de selecţie a cărei valori sunt variabile aleatoare x1, ..., xn. Presupunem că pentru
variabila teoretică se cere să se determine parametrul (caracteristica) λ .

Se numeşte estimator al parametrului  , o funcţie  *= *(x1,…,xn) care depinde de


rezultatul selecţiei (adică de x1, …,xn) şi care aproximează parametrul  . În acest caz funcţia
Eroare! Legătură incorectă. 131

 * defineşte o statistică. Ea este în realitate o variabilă aleatoare pentru care avem îndeplinită
egalitatea :

( )
lim P λ* − λ < ε = 1, (∀) ε > 0 ,
n→N

conform căreia  * converge în probabilitate către parametrul estimat  când volumul


selecţiei n tinde către N. Mai precis, spunem că  * este o funcţie de estimaţie consistentă sau
estimator consistent pentru parametrul  ,dacă

(∀) ε > 0, (
lim P λ* − λ < ε = 1
n→N
)

Pentru selecţia dată estimatorul λ* are o valoare determinată, notată λd* şi numită
estimaţie consistentă, iar coeficientul de siguranţă cs=P( λd*-λ <ε) este probabilitatea
care fixează gradul de apropiere al estimaţiei consistente λd* faţă de parametrul estimat λ.
Se preferă acei estimatori λ* care conduc la coeficienţi de siguranţă cât mai apropiaţi de
unitate.
De exemplu, legea numerelor mari, a lui Bernoulli, arată că în cazul distribuţiei
binomiale, fn(A) este un estimator consistent pentru p=P(A) întrucât avem:

lim P(| f n - p |< ε) = 1


n →∞

2. Estimator absolut corect. Estimator corect.


Fie λ* un estimator al parametrului λ.

Definiţia 1 : λ* este un estimator absolut corect dacă M(λ*)=λ şi D(λ*) 0 când n N. În


acest caz, orice valoare λ d*, a estimatorului λ*, estimează absolut corect parametrul λ .

Definiţia 2 : λ* este un estimator corect pentru λ dacă M(λ*) λ şi D(λ*) 0 când


n N. În acest caz, orice valoare determinată λ d* estimează corect parametrul λ.

Definiţia 3 : Se numeşte distorsiunea (deplasarea) estimatorului λ* diferenţa: M(λ*)-


λ. Estimatorul λ* este nedeplasat dacă M(λ*)=λ. Deci un estimator absolut corect este
nedeplasat, pentru că are distorsiunea nulă.
Dacă M(λ*)-λ a
0 când n N, spunem că a este o eroare sistematică.
Teorema 1 : Orice estimator absolut corect este şi estimator consistent.
132 Eroare! Legătură incorectă.

Demonstraţie :
Avem M(λ*)=λ şi D(λ*) 0 (n N). Aplicăm inegalitatea lui Cebîşev variabilei λ* :

D(λ*)
P(| λ* - λ |< ε) ≥ 1 - 2
ε

Prin trecere la limită obţinem :

lim P(| λ* - λ |< ε) = 1,


n →∞

adică λ* este un estimator consistent.


Exemple :
1) Momentul de selecţie de ordinul r, Mr* este un estimator absolut corect al momentului
teoretic Mr.
Într-adevăr,

⎛1 n ⎞ 1 n 1 n 1
M(M *r ) = M⎜⎜ ∑ x rj ⎟⎟ = ∑ M( x rj) = ∑ M r = nM r = M r
⎝ n j=1 ⎠ n j=1 n j=1 n

şi folosind independenţa variabilelor :

⎛1 n ⎞ 1 n 1 n 1 D( x r )
D(M*r) = D⎜⎜ ∑ x rj ⎟⎟ = ∑ D( x rj) = 2 ∑ D( x r ) = 2 nD( x r ) = →0
⎝ n j=1 ⎠ n 2 j=1 n j=1 n n

când n → ∞ .
1 n
În particular, media de selecţie m* = ∑ x j este un estimator absolut corect al mediei
n j=1

teoretice m.
2) Momentul centrat de selecţie μr* este un estimator corect al momentului centrat teoretic μr.
Observaţie:
3
~ = n μ* şi μ
Valorile μ ~ = n *
μ3 estimează absolut corect momentele centrate
2 2 3
n -1 (n - 1)(n - 2)
teoretice μ2 şi μ3.
Eroare! Legătură incorectă. 133

1 n
*
În particular, dispersia de selecţie D* = μ 2 = ∑
n 1
( x j - m* )2 este un estimator corect iar

~ ~ 1 n
D=μ 2 = ∑
n -1 1
( x j - m* )2 este un estimator absolut corect (deci şi nedeplasat) pentru dispersia

teoretică D.

Teorema 2 (fără demonstraţie) : Dacă n este suficient de mare (n>30), Mr* are o

distribuţie normală de medie Mr şi dispersie


1
n
(
m 2 r − M 2r )

1 n
În particular, m* = M 1* = ∑ x j are o distribuţie normală de parametri m şi
n 1
1 1
(M 2 - M 12 ) = D .
n n
3. Estimator eficient.
Fie de estimat parametrul λ şi considerăm funcţia de densitate de probabilitate f sau
funcţia de probabilitate (adică probabilităţile) în cazul discret, care depinde de λ, adică
f=f(x;λ).
După Fischer, expresia :

⎛⎛ ∂ ⎞ ⎞⎟
2
⎛ ⎛ f λ′ ⎞ 2 ⎞
I(λ) = n ⋅ M ⎜ ln f ( x; λ ) ⎟ = n ⋅ M⎜ ⎜ ⎟ ⎟,

⎜ ⎝ ∂λ ⎠ ⎟⎠ ⎜⎝ f ⎠ ⎟
⎝ ⎝ ⎠

se numeşte cantitatea de informaţie a parametrului λ .


1
Conform unei teoreme, D(λ*) ≥ (mărginită inferior), cunoscută sub numele de
I(λ )
inegalitatea informaţiei (inegalitatea lui Rao-Cramér şi Frechet-Darmois).
Un estimator λ* se numeşte eficient dacă are cea mai mică dispersie, adică este soluţia
1
ecuaţiei D(λ*) = . Înseamnă că estimatorul eficient λ* este cel mai bun în sensul că
I(λ)
realizează cea mai mică împrăştiere faţă de λ , deci: D(λ*)=D(λ*-λ) este minimă.
Prin definiţie, raportul :

1
e(λ*) =
I(λ) ⋅ D(λ*)
134 Eroare! Legătură incorectă.

se numeşte eficienţa estimatorului λ*. Dacă λ* este estimator eficient atunci e(λ*)=1
(deoarece I(λ) D(λ*)=1).
Estimatorul λ* se numeşte asimptotic eficient dacă lim e(λ*) = 1 .
n →∞

4. Estimatori de verosimilitate maximă


Fie x variabila teoretică având funcţia de probabilitate f(x;λ1, ..., λs). Notăm
f( x j ; λ1 , K λ s ) = P(x = x j) , j = 1, n valorile funcţiei de probabilitate pentru variabilele xj.

Variabila de selecţie x*(x1, ... ,xn) reflectă variabila teoretică x şi această reflectare este
măsurată prin probabilitatea realizării tuturor evenimentelor x=xj, deci a intersecţiei
n

I (x = x
j=1
j ) . Această probabilitate, notată V(x1,... ,xn; λ1, ..., λs), se numeşte funcţia de

verosimilitate a selecţiei, deci :

⎛ n ⎞ n n
V( x1 , K , x n ; λ1 K , λs) = P⎜⎜ I (x = x j ) ⎟⎟ = ∏ P(x = x j ) = ∏ f(x j ; λ1 K , λs)
⎝ j=1 ⎠ j=1 j=1

Estimatorii λ1*,...,λs* ai parametrilor λ1,...,λs sunt de verosimilitate maximă dacă


realizează maximul funcţiei V.
( )
Astfel, λ*i i = 1, s se determină rezolvând sistemul de ecuaţii

∂V ∂V ∂V
= 0, = 0, K , =0
∂ λ1 ∂ λ2 ∂ λs

Observaţie : În calcule, în locul funcţiei V se poate utiliza funcţia ln V, care conduce la aceleaşi soluţii
pentru estimatorii de verosimilitate maximă, aşa încât se poate considera sistemul :

∂ ln V ∂ ln V ∂ ln V
= 0, = 0, K , =0
∂ λ1 ∂ λ2 ∂ λs

Au loc următoarele teoreme (fără demonstraţie) :

Teorema 1 : Un estimator eficient al unui parametru este şi de verosimilitate maximă.

Teorema 2 : Un estimator de verosimilitate maximă este şi estimator consistent.

Teorema 3 : Un estimator de verosimilitate maximă, pentru valori mari ale lui n este o
variabilă aleatoare normală cu m=λ şi D=1/I(λ).
Exemple :
Eroare! Legătură incorectă. 135

1) În cazul distribuţiei binomiale, să se determine estimatorii de verosimilitate


maximă, pentru probabilitatea p şi media np.
Avem :

f(x; p) = Cnx p x (1 - p )n - x ,

deci :
n
V( x1 , K , x n ; p) = ∏ Cnx j p x j (1 - p )n - x j ,
j=1

astfel încât :
n
ln V = ∑ [ln Cnx j + x j ln p + (n - x j ) ln (1 - p)] .
j=1

Derivând, obţinem :

∂ ln V
∂p
n ⎛x
= ∑ ⎜⎜ -
j=1 ⎝ p
j n-xj ⎞
⎟=
1 ⎛ n

⎜ ∑
1 - p ⎟⎠ p(1 - p) ⎝ 1
x j -
n


1
np


⎟ =
1
⎠ p(1 - p)
(∑
n

1
)
x j - n 2p = 0

n
1 n
De aici, ∑ x j - n 2 p = 0 , de unde : np =
1

n j=1
x j = m * şi se constată astfel că media de

selecţie este un estimator de verosimilitate maximă pentru media distribuţiei binomiale.


2) Să se determine estimatorii de verosimilitate maximă ai parametrilor m şi σ2 din cazul
distribuţiei normale.
Ştim că :
1 (x- m ) 2
f(x; m, σ) = e
-
2σ 2 ,
σ 2π
astfel :
n 2
n (x j - m )
V( x1 , K , x n ; m, σ) = ∏ f( x j ; m, σ) = n
1
n e
-
∑ 2 σ2 ,
j=1 σ ( 2π ) j=1
deci :
n 1 n
ln V = -n ln σ - ln (2π) - 2 ∑ ( x j - m )2
2 2 σ j=1

Obţinem sistemul de ecuaţii (de verosimilitate maximă) :


136 Eroare! Legătură incorectă.

⎧ ∂ ln V 1 n

⎪ ∂m = -
2 σ2
⋅ 2 ∑ ( x j - m)(-1) = 0
⎪ j=1

⎪ ∂ ln V = - n + 1
n

3 ∑ xj
( - m )2 = 0
⎪ ∂σ σ σ j=1

De aici, deducem :

⎧ n
⎪ ∑ ( x j - m) = 0
⎪ j=1
⎨n ,
⎪ ( x - m ) 2 = n σ2
⎪∑ j
⎩ j=1

cu soluţia :

1 n 1 n
*
m = ∑ ,
xj σ*2 =
∑ ( x j - m* )2
n j=1 n j=1

care reprezintă estimatorii de verosimilitate maximă, ai mediei şi dispersiei din cazul


distribuţiei normale.
3) Să se estimeze proporţia de indivizi λ dintr-o colectivitate C care au o anumită
proprietate, folosind estimatorul λ* de verosimilitate maximă. Să se arate că λ* este şi
estimaţie eficientă.
Considerăm o selecţie de volum n şi asociem fiecărui individ j o variabilă aleatoare
⎡ 0 1⎤
xj: ⎢ ⎥ , care poate lua valoarea 1 sau 0, după cum individul are proprietatea sau nu.
⎣1 - λ λ ⎦

Funcţia de probabilitate se poate scrie deci : f(x; λ ) = λ x (1 - λ )1- x unde x ∈ {0,1} .

Pentru selecţia cu variabilele x1, ..., xn avem astfel :


n

∑x j n

V( x1 , K , x n ; λ) = λ 1 ⋅ (1 - λ )n -∑1 x j

şi prin logaritmare :
n
⎛ n

ln V = ∑ x j ln λ + ⎜⎜ n - ∑ x j ⎟⎟ ln (1 - λ ) ,
1 ⎝ 1 ⎠

iar ecuaţia verosimilităţii maxime va fi :

∂ ln V 1 n 1 ⎛ n

= ∑ xj - ⎜⎜ n - ∑ x j ⎟⎟ = 0
∂λ λ 1 1- λ ⎝ 1 ⎠
Eroare! Legătură incorectă. 137

având soluţia :

1 n
λ =
*
∑ xj
n 1

Apoi,

⎛ ⎛ ∂ ln f ⎞2 ⎞ 1 ⎛ ∂ ln f(x; λ) ⎞2 1
⎛ x 1- x ⎞
2

⎜ ⎝ ∂λ ⎟⎠ ⎟ ∑ ∑
M⎜ ⎜ ⎟ = ⎜ ⎟ ⋅ f(x; λ ) = ⎜ - ⎟ f(x; λ ) =
⎝ ⎠ x = 0 ⎝ ∂λ ⎠ x = 0 ⎝ λ 1 - λ ⎠
2 2
⎛ 1 ⎞ ⎛1⎞ 1 1 1
=⎜ - ⎟ (1- λ ) + ⎜ ⎟ ⋅λ = + =
⎝ 1- λ ⎠ ⎝λ⎠ 1 - λ λ λ (1 - λ )

deci :
⎛ ⎛ ∂ ln f(x; λ ) ⎞2 ⎞ n
I(λ ) = nM⎜ ⎜ ⎟ ⎟⎟ =
⎜⎝ ∂λ ⎠ ⎠ λ (1 - λ)

⎛1 n ⎞ 1 n 1 n nλ(1 - λ) λ (1 - λ )
D(λ*) = D⎜⎜ ∑ x j ⎟⎟ = ∑ D( x j) = 2 ∑ (λ - λ 2) = 2
=
⎝ n 1 ⎠ n2 1 n j=1 n n

Astfel :

1 1
= = 1,
I(λ ) ⋅ D(λ*) n λ (1 - λ )

λ (1 - λ) n

relaţie care demonstrează că λ* este un estimator eficient pentru parametrul λ .

10.2.2. Estimarea prin intervale de încredere


Presupunem că din colectivitatea C se efectuează o selecţie de volum n. Dacă funcţia de
probabilitate a variabilei teoretice x este f(x;λ), să se determine două funcţii de selecţie A(x1,
..., xn) şi B(x1, ..., xn) astfel încât: P(A λ B)=α (constantă).
Intervalul aleator [A,B] se numeşte interval de încredere pentru parametrul λ, iar
probabilitatea α este coeficientul de încredere. Cu cât [A,B] este mai mic şi α mai apropiat de
1 cu atât avem o indicaţie mai precisă asupra parametrului λ .
În locul intervalului [A,B] se poate considera un interval centrat, cu centrul în estimatorul
~
punctual λ al parametrului λ .
138 Eroare! Legătură incorectă.

~ ~
Fie λ nedeplasat, adică M(λ ) = λ , obţinut experimental pe baza selecţiei efectuate. Să
estimăm acum eroarea posibilă. Pentru aceasta, alegem o probabilitate α suficient de mare şi
determinăm valoarea ε aşa încât să avem :

~
P(|λ -λ |< ε) = α

sau :
~ ~ ~ ~
P(λ -ε < λ < λ +ε) = α , Iα = (λ -ε,λ +ε)

Observaţie: Reţinem că λ este o mărime fixă (nealeatoare) în timp ce intervalul de încredere Iα este
~
aleator, determinat pe baza datelor experimentale, având centrul în λ (care este o valoare aleatoare) şi
lungimea 2ε.
Din această cauză se mai spune că α este probabilitatea ca Iα să conţină punctul λ.
~ ~
Extremităţile intervalului Iα, adică λ-ε şi λ+ε se numesc limite de încredere.
~ ~
Determinarea limitelor de încredere λ1 = λ -ε şi λ 2 = λ +ε în cazul când legea de repartiţie
~ ~
a variabilei λ este cunoscută se face uşor, determinând ε astfel ca P(|λ -λ |< ε) = α .
~
Problema se complică în cazul când legea de repartiţie a variabilei λ nu este cunoscută.
Pentru a evita aceste complicaţii se pot exprima parametrii necunoscuţi care-l determină pe ε
prin estimatorii lor punctuali.
1. Interval de încredere pentru valoarea medie.
Presupunem că variabila aleatoare teoretică x are m şi D necunoscute. Fie x1, ..., xn
valorile variabilei x*, de selecţie, obţinute prin efectuarea unei selecţii de volum n. Se cunosc
expresiile pentru estimatorii valorii medii şi dispersiei date de relaţiile :

1 n ~ 1 n
*
m = ∑
n j=1
x j , D = ∑
n - 1 j=1
( x j - m* )2 ,

care sunt estimatori absolut corecţi (nedeplasaţi).


⎛ D⎞
Se ştie că pentru n suficient de mare, m* are o lege normală N⎜ m, ⎟ . Presupunem m*
⎝ n⎠
normal repartizată. Dacă se cunoaşte dispersia teoretică D atunci intervalul de încredere Iα
pentru media m=M(x), cu aproximaţie destul de bună este Iα=(m*-ε,m*+ε), unde ε este soluţia
⎛ε⎞ α ⎛α⎞
ecuaţiei Φ⎜ ⎟ = , deci este de forma : ε = σ Φ -1 ⎜ ⎟ , Φ -1 fiind funcţia inversă a funcţiei
⎝σ⎠ 2 ⎝2⎠
Eroare! Legătură incorectă. 139

D
integrale a lui Laplace, iar σ = . Dacă dispersia teoretică D nu se cunoaşte, atunci în
n
~
~= D
locul lui σ se poate lua σ .
n
Observaţie :
Dacă volumul selecţiei n este relativ mic (n 20), atunci pentru Iα se poate lua intervalul:

⎛ * ~
σ ~ ⎞
σ
⎜ m - tα , m* + t α ⎟
⎝ n n⎠

unde tα se determină din ecuaţia P( t >tα)=1-α, corespunzătoare distribuţiei „t” (student) cu n-1 grade de
libertate, α fiind coeficientul de încredere, iar

~
~= D 1 n
σ = ∑
n - 1 j=1
( x j - m* )2

Exemple :
1) Să se determine intervalul de încredere, cu coeficient de încredere α=0,9973,
pentru media diametrului unui lot de produse normal repartizat, considerând că se face o
selecţie de n=9 produse pentru care se obţine m*=2mm şi σ=0,01mm.

Avem :

⎛α⎞
ε = σ Φ -1 ⎜ ⎟ = 0,01 ⋅ Φ -1 (0,4986) = 0,01 ⋅ 2,99 = 0,0299,
⎝2⎠

-1
Φ obţinându-se din tabelul de funcţii Laplace existent în diverse cărţi de specialitate sau în
tabele matematice uzuale. Astfel: Iα=(2-0,0299;2+0,0299)=(1,9701;2,0299).
2) Să se rezolve problema de mai sus pentru α=0,8, în cazul în care diametrul nu urmează
o lege normală. Cum n=9 (volum mic) folosim intervalul de încredere precizat în observaţia
de mai sus. Astfel, δ=1-α=1-0,8=0,2 şi tα=1,397 (tabelat în anexe, în cărţi de specialitate)
~ = 0,01 3, rezultă intervalul de încredere :
corespunzător la n-1=8 grade de libertate. Cum σ

⎛ 0,01 0,01 ⎞
⎜ 2 - 1,397 ⋅ ;2 + 1,397 ⋅ ⎟ = (1,9953;2,0047)
⎝ 3 3 ⎠

3) Dintr-o colectivitate C de volum N=100 piese, se face o selecţie de volum n=20,


obţinându-se după măsurători, datele din tabelul de mai jos :
140 Eroare! Legătură incorectă.

j 1 2 3 4 5 6 7 8 9 10
xj 10,5 10,8 11,2 10,9 10,4 10,6 10,9 11,0 10,3 10,8
j 11 12 13 14 15 16 17 18 19 20
xj 10,6 11,3 10,5 10,7 10,8 10,9 10,8 10,7 10,9 11,0

Să se afle estimarea m* a mediei m a colectivităţii precum şi Iα pentru α=0,8


corespunzător presupunând m* normal repartizată.

Avem :

1 20 10,5 + K + 11,0
*
m = ∑
n 1
xj =
20
= 10,78

~ 1 20 (-0,28 )2 + K + (0,22 )2
D= ∑ (x j- m ) =
n -1 1
* 2

19
= 0,06379

Astfel :
~
D 0,06379
σ= = = 0,05647
n 20

deci :

⎛α⎞
ε = σ Φ -1 ⎜ ⎟ = 0,05647 ⋅ Φ -1 (0,4) = 0,05647 ⋅ 1,28 = 0,07228
⎝2⎠

Rezultă :

Iα = (10,78 - 0,07228;10,7 + 0,07228) = (10,70772;10,85228)

2. Interval de încredere pentru dispersie


Am văzut că pentru dispersia teoretică D se poate lua estimatorul absolut corect,
nedeplasat :

~ 1 n 1 n
D= ∑
n - 1 j=1
( x j - m* )2 , unde m* = ∑ x j este media de selecţie.
n j=1

~ ( x j - m* )2
Estimatorul D este suma a n variabile aleatoare independente , deoarece
n -1
conţin aceeaşi variabilă m*. Se poate demonstra că atunci când n creşte această sumă
~
converge spre legea normală (practic pentru n 30). Se arată că M(D) = D ceea ce arată că
Eroare! Legătură incorectă. 141

~ ~ 2 2
D este un estimator nedeplasat pentru D. De asemenea, D(D) = D , unde înlocuind
n -1
~ ~ 2 ~2
parametrul necunoscut D cu estimatorul său D avem : D(D) = D .
n -1
~ ~
Considerând egalitatea P(| D - D |< ε) = α transmisă pentru variabila normală D ,
~ ~ ~ 1 n
obţinem Iα = (D - ε , D + ε) , unde : D = ∑
n -1 1
( x j - m* )2 iar ε este soluţia ecuaţiei

⎛ ε ⎞ α ⎛α⎞ 2 ~
Φ⎜⎜ ⎟⎟ = , adică ε = σD~ ⋅ Φ -1 ⎜ ⎟ unde σD~ = ⋅D.
⎝ σD~ ⎠ 2 ⎝2⎠ n -1
Observaţie : Dacă n este relativ mic (n 20) intervalul de încredere pentru dispersia teoretică D este :

⎛ n -1 ~ n -1 ~ ⎞
⎜ 2 D , 2 D⎟
⎜χ
⎝ M χm ⎟⎠

2 2 2
unde : χM şi χ m sunt valorile variabilei χ cu (n-1) grade de libertate corespunzătoare probabilităţilor :

2 2 1+ α 1- α
δm = P(χ > χm ) = şi δM = P(χ2 > χ2M ) =
2 2
Exemple :
1) În condiţiile exemplului 3) din 10.2.1.1., să se determine intervalul de încredere pentru
dispersia teoretică D şi abaterea medie pătratică D corespunzătoare coeficientului de
încredere α=0,8.

~ 2~
Am văzut că D = 0,06379 , iar σD~ = D = 0,02069 . Deci, ε va fi :
19
ε=0,02069⋅φ-1(0,4)=0,02069⋅1,28=0,02648 şi intervalul de încredere pentru D este :

(0,06379-0,02648;0,06379+0,02648)=(0,03731;0,09027), iar pentru D (abaterea medie


pătratică) : (0,19316;0,30045).
2) Efectuând o selecţie de volum n=10 s-au obţinut caracteristicile estimatoare m*=8,6 şi
~
D = 2,25 . Să se determine intervalele de încredere pentru dispersia teoretică D şi abaterea

medie pătratică D cu coeficientul de încredere α=0,95.

Deoarece n este unic folosim observaţia de mai sus şi astfel :

1+ α
δm = = 0,975 , δM = 0,025
2
142 Eroare! Legătură incorectă.

Din tabele, deducem χ2m = 2,70 , χ2M = 19,0 , deci intervalul de încredere pentru D este

(1,066;7,50) iar pentru D este (1,032;2,739).

10.3 Ajustarea legilor de distribuţie. Metode empirice.


Fie o colectivitate  şi v.a. X care reprezintă caracteristica cercetată. X se consideră
determinată dacă este cunoscută atât mulţimea valorilor x ale argumentului, cât şi
densitatea de probabilitate f(x) sau probabilităţile pi, după cum X este continuă sau
discretă.
Construirea funcţiei densitate de probabilitate poate fi realizată în diverse moduri :
a) se construieşte schema probabilistică în care este încadrată caracteristica studiată
şi pe cale de raţionament se determină expresia analitică a lui f(x). Astfel de
distribuţii se numesc distribuţii teoretice.
b) Se înregistrează sub formă de frecvenţe valorile caracteristicii studiate pentru
fiecare valoare a argumentului, când variabila este continuă. Astfel de distribuţii
se obţin în urma unor experienţe, de aceea se numesc distribuţii empirice. O
distribuţie empirică, indiferent că exprimă o caracteristică discretă sau continuă,
nu poate fi decât discretă (sunt prezentate sub formă tabelară).
La o distribuţie empirică apelăm de fapt în una din următoarele situaţii :
- schema probabilistică teoretică în care se încadrează caracteristica studiată
constituie o ipoteză şi se urmăreşte verificarea ipotezei făcute, prin cercetarea
concordanţei dintre datele tabelate şi cele teoretice.
- cunoaşterea colectivităţii  în toată generalitatea ei este imposibilă sau nepractică,
fapt ce conduce la cercetarea caracteristicii ce determină v.a. X prin sondaje
(folosind eşantioane).
Încadrarea unei distribuţii empirice într-o schemă probabilistică cu distribuţie
teoretică răspunde în modul cel mai potrivit descoperirii legităţii de desfăşurare a
caracteristicii studiate. Odată cunoscut modelul matematic al legii respective, se pot
rezolva diverse probleme puse în practică.
Testele de ajustare au scopul de a verifica dacă un eşantion provine sau nu de la o
variabilă aleatoare de distribuţie cunoscută F0(x).
Dacă F(x) este funcţia de repartiţie a variabilei de selecţie (empirice), se va testa
ipoteza :
H0 : F(x)=F0(x) împotriva ipotezei H1 : F(x)
F0(x)
Eroare! Legătură incorectă. 143

2
Astfel de teste sunt de exemplu : testul  , testul Kolmogorov, testele Neyman-
Pearson etc.
Metode empirice uzuale

10.3.1. Forma histogramei.


Histograma ne poate conduce la eliminarea anumitor modele, de exemplu în cazul
când unele proprietăţi de simetrie nu sunt verificate. O formă simetrică ne conduce de
obicei la ipoteza de normalitate, însă legea lui Gauss-Laplace nu este singura ce are curba
densităţii sub formă de clopot. Mai întâlnim repartiţia Cauchy şi unele repartiţii Student
particulare.

O formă puternic asimetrică poate sugera folosirea legii lognormale, gamma, Weibull
sau beta care au curbe de densitate asemănătoare, cel puţin pentru anumite valori ale
parametrilor.

10.3.2. Verificarea unor proprietăţi matematice.


Se verifică pe eşantionul considerat dacă anumite proprietăţi sau relaţii privind
parametrii unui model sunt adevărate.
Astfel, pentru o lege Poisson, ştim că M(X)=D(X). Ne vom asigura pe un eşantion că
media empirică (de selecţie) diferă doar puţin de dispersia de selecţie modificată. O astfel
de constatare este numai o indicaţie privind caracterul legii (posibil Poisson) dar nu o
dovadă certă.
Veridicitatea unui model nu se poate dovedi prin mediile statistice.

Pentru o variabilă normală ştim că boltirea (coeficientul de aplatizare) este 3 iar


coeficientul de asimetrie este nul. Vom verifica dacă valorile empirice corespunzătoare se
abat de la valorile teoretice, utilizând tabelele cu valori.

10.3.3. Ajustarea grafică.


Pentru multe legi de probabilitate, o transformare funcţională simplă permite
reprezentarea curbei de repartiţie printr-o dreaptă.
Funcţia de repartiţie empirică a unui eşantion de talie (sau volum) N diferă puţin,
dacă N este mare, de funcţia de repartiţie teoretică F(x). Atunci, vom verifica dacă datele
sunt adecvate modelului, comparând funcţia de repartiţie empirică cu o dreaptă (trasată
prin puncte, pe o hârtie specială cu o scară funcţională).
144 Eroare! Legătură incorectă.

Spre exemplificare, vom considera câteva legi probabilistice uzuale .


1.Legea exponenţială negativă.
Dacă durata de viaţă X a unei componente este astfel încât :
P(X>x)=e- x ,
atunci :
ln(1-F(x))=- x.
Pentru un eşantion de talie n, vom reporta atunci, pentru fiecare valoare a timpului de
funcţionare x, procentajul de “supravieţuire” la data x, pe o scară logaritmică. Practic,
dacă valorile xi sunt ordonate crescător vom construi punctele de coordonate :
⎛ ⎛ i −1⎞⎞
⎜⎜ x i , ln⎜1 − ⎟ ⎟ , i ∈ [1, n ]
⎝ ⎝ n ⎠ ⎟⎠
care trebuie să fie aproximativ aliniate de-a lungul unei drepte a cărei pantă este o
estimare grafică a lui  .
2.Legea lui Weibull
β
P ( X > x ) = e − λx ,
de unde :
ln(-ln(P(X>x))=ln + lnx
Aici, se vor reprezenta punctele :
⎛ ⎛ i −1⎞⎞⎞
⎜ ln x i , ln⎜⎜ − ln⎛⎜1 − ⎟⎟⎟

⎝ ⎝ ⎝ n ⎠ ⎟⎠ ⎟⎠

Panta dreptei obţinute, furnizează o estimare grafică a lui  iar ordonata sa la origine
o estimare a lui  .
3.Legea Gauss-Laplace
X−m
Pentru simplitate, vom considera legea normală normată N(0,1), notând = U.
σ
Dacă observaţiile xi provin de la o variabilă normală N(m,), atunci valorile
xi − m
ui = constituie un eşantion al variabilei normate U. Dacă numărul observaţiilor
σ
este mare, atunci funcţia de repartiţie empirică F* (a eşantionului) trebuie să difere puţin
de funcţia de repartiţie teoretică, aşa cum rezultă ea din tabele.
Notăm cu Fi valorile funcţiei de repartiţie empirice (adică numărul valorilor mai mici
ca xi împărţit la n). Acestor valori empirice le asociem valorile corespunzătoare ui* ale
v.a. normale normate obţinute din tabel. Atunci, dacă distribuţia este într-adevăr normală
Eroare! Legătură incorectă. 145

xi − m
(gaussiană) şi dacă n este mare, ui* trebuie să difere puţin de u i = şi trebuie deci
σ
să existe o relaţie liniară între ui* şi xi. Graficul trasat prin punctele (ui*,xi) trebuie să fie
1
aproape o dreaptă tăind axa Ox în m şi având panta . Această dreaptă se numeşte
σ
dreapta lui Henry.

10.3.4. Aplicaţii
1) Legea unui procentaj. Se aleg independent şi cu întoarcere n indivizi ai unei
populaţii separate în două submulţimi A şi A în proporţii de p şi respectiv 1-p (de
exemplu piese rebut sau piese bune, etc.). Fie k numărul indivizilor din A,
obţinuţi în eşantion. Această v.a. ştim că urmează o lege binomială B(n,p). Notăm
cu F=k/n frecvenţa empirică a categoriei A. F este media aritmetică a n variabile
Bernoulli de parametri p, independente.
Avem :
p(1 − p)
M(F)=p şi D(F) = ,
n
iar dacă n este mare, atunci :
⎛ p(1 − p) ⎞
F ~ N⎜⎜ p, ⎟,

⎝ n ⎠
conform teoremei limită centrală.
Convergenţa lui F către p, cunoscută sub numele de teorema Moivre-Laplace este una
din primele aplicaţii ale legii numerelor mari.
Exemplu :
Pentru legea binomială, aproximarea gaussiană a lui F este valabilă dacă np şi n(1-p)
sunt superioare lui 5. Astfel, pentru un eşantion de 400 de piese rezultate în urma unei
prelucrări, în care 10% sunt piese cu defecte, ne putem aştepta să găsim în 95% din cazuri

0,10 ⋅ 0,90
un procentaj de defecte în eşantion cuprins între 10% ± 1,96 , adică
400
9,7%<F<10,3%.
2) Corelarea între m* şi D*. Fie X o caracteristică teoretică de medie m şi dispersie
D=2 pentru care considerăm media de selecţie m* şi dispersia de selecţie D*. Să
determinăm cor(m*,D*).
Avem :
146 Eroare! Legătură incorectă.

⎡ n − 1 ⎞⎤
( ) ( ⎛
)
cor m * , D * = M ⎢ m * − m ⎜ D * −
n
D ⎟⎥
⎣ ⎝ ⎠⎦

Fără a restrânge generalitatea, putem presupunem că m=0, deoarece cunoaştem


invarianţa corelaţiei la schimbarea prin translaţie a unuia din termeni :
⎡⎛ 1 n ⎞⎛ 1 n 2 ⎞⎤
( ) ( )
cor m * , D * = M m * , D * = M ⎢⎜ ∑ X i ⎟⎜ ∑ X 2j − m * ⎟⎥ =
⎣⎝ n 1 ⎠⎝ n 1 ⎠⎦

=
1 ⎡⎛ n
M
n 2 ⎣⎝ 1
X
⎞⎛ n 2 ⎞⎤
⎢ ∑ i ⎟⎜ ∑ X j ⎟⎥ − M m

⎠⎝ 1 ⎠⎦
*
[( ) ] = n1 M⎡⎢∑∑ X X ⎤⎥ − M[(m ) ] =
3
2
n n

i
2
j
* 3

⎣ i =1 j=1 ⎦
1 ⎛ n 3⎞ 1 ⎛ n 3⎞
= M⎜ ∑ X i ⎟ − 3 M⎜ ∑ X i ⎟
n2 ⎝ 1 ⎠ n ⎝ 1 ⎠
deoarece M(XiXj)=0 pentru i
j din cauza independenţei.
Deci :
n −1
(
M m*D* = ) 1
n
1
μ3 − 2 μ3 = 2 μ3
n n
Dacă n  , observăm că m* şi D* sunt asimptotic necorelate şi dacă distribuţia este
simetrică,  3=0, deci m* şi D* sunt asimptotic necorelate oricare ar fi n.
Eroare! Legătură incorectă. 147

ANEXE

Anexa 1. Distribuţia normală. Valorile funcţiei  (x)


x 0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0 0 0.003989 0.007978 0.011966 0.015953 0.019939 0.023922 0.027903 0.031881 0.035856
0.1 0.039828 0.043795 0.047758 0.051717 0.05567 0.059618 0.063559 0.067495 0.071424 0.075345
0.2 0.07926 0.083166 0.087064 0.090954 0.094835 0.098706 0.102568 0.10642 0.110261 0.114092
0.3 0.117911 0.12172 0.125516 0.1293 0.133072 0.136831 0.140576 0.144309 0.148027 0.151732
0.4 0.155422 0.159097 0.162757 0.166402 0.170031 0.173645 0.177242 0.180822 0.184386 0.187933
0.5 0.191462 0.194974 0.198468 0.201944 0.205401 0.20884 0.21226 0.215661 0.219043 0.222405
0.6 0.225747 0.229069 0.232371 0.235653 0.238914 0.242154 0.245373 0.248571 0.251748 0.254903
0.7 0.258036 0.261148 0.264238 0.267305 0.27035 0.273373 0.276373 0.27935 0.282305 0.285236
0.8 0.288145 0.29103 0.293892 0.296731 0.299546 0.302337 0.305105 0.30785 0.31057 0.313267
0.9 0.31594 0.318589 0.321214 0.323814 0.326391 0.328944 0.331472 0.333977 0.336457 0.338913
1 0.341345 0.343752 0.346136 0.348495 0.35083 0.353141 0.355428 0.35769 0.359929 0.362143
1.1 0.364334 0.3665 0.368643 0.370762 0.372857 0.374928 0.376976 0.379 0.381 0.382977
1.2 0.38493 0.386861 0.388768 0.390651 0.392512 0.39435 0.396165 0.397958 0.399727 0.401475
1.3 0.4032 0.404902 0.406582 0.408241 0.409877 0.411492 0.413085 0.414657 0.416207 0.417736
1.4 0.419243 0.42073 0.422196 0.423641 0.425066 0.426471 0.427855 0.429219 0.430563 0.431888
1.5 0.433193 0.434478 0.435745 0.436992 0.43822 0.439429 0.44062 0.441792 0.442947 0.444083
1.6 0.445201 0.446301 0.447384 0.448449 0.449497 0.450529 0.451543 0.45254 0.453521 0.454486
1.7 0.455435 0.456367 0.457284 0.458185 0.45907 0.459941 0.460796 0.461636 0.462462 0.463273
1.8 0.46407 0.464852 0.46562 0.466375 0.467116 0.467843 0.468557 0.469258 0.469946 0.470621
1.9 0.471283 0.471933 0.472571 0.473197 0.47381 0.474412 0.475002 0.475581 0.476148 0.476705
2 0.47725 0.477784 0.478308 0.478822 0.479325 0.479818 0.480301 0.480774 0.481237 0.481691
2.1 0.482136 0.482571 0.482997 0.483414 0.483823 0.484222 0.484614 0.484997 0.485371 0.485738
2.2 0.486097 0.486447 0.486791 0.487126 0.487455 0.487776 0.488089 0.488396 0.488696 0.488989
2.3 0.489276 0.489556 0.48983 0.490097 0.490358 0.490613 0.490863 0.491106 0.491344 0.491576
2.4 0.491802 0.492024 0.49224 0.492451 0.492656 0.492857 0.493053 0.493244 0.493431 0.493613
2.5 0.49379 0.493963 0.494132 0.494297 0.494457 0.494614 0.494766 0.494915 0.49506 0.495201
2.6 0.495339 0.495473 0.495604 0.495731 0.495855 0.495975 0.496093 0.496207 0.496319 0.496427
2.7 0.496533 0.496636 0.496736 0.496833 0.496928 0.49702 0.49711 0.497197 0.497282 0.497365
2.8 0.497445 0.497523 0.497599 0.497673 0.497744 0.497814 0.497882 0.497948 0.498012 0.498074
2.9 0.498134 0.498193 0.49825 0.498305 0.498359 0.498411 0.498462 0.498511 0.498559 0.498605
3 0.49865 0.498694 0.498736 0.498777 0.498817 0.498856 0.498893 0.49893 0.498965 0.498999
3.1 0.499032 0.499065 0.499096 0.499126 0.499155 0.499184 0.499211 0.499238 0.499264 0.499289
3.2 0.499313 0.499336 0.499359 0.499381 0.499402 0.499423 0.499443 0.499462 0.499481 0.499499
3.3 0.499517 0.499534 0.49955 0.499566 0.499581 0.499596 0.49961 0.499624 0.499638 0.499651
3.4 0.499663 0.499675 0.499687 0.499698 0.499709 0.49972 0.49973 0.49974 0.499749 0.499758
3.5 0.499767 0.499776 0.499784 0.499792 0.4998 0.499807 0.499815 0.499822 0.499828 0.499835
3.6 0.499841 0.499847 0.499853 0.499858 0.499864 0.499869 0.499874 0.499879 0.499883 0.499888
3.7 0.499892 0.499896 0.4999 0.499904 0.499908 0.499912 0.499915 0.499918 0.499922 0.499925
3.8 0.499928 0.499931 0.499933 0.499936 0.499938 0.499941 0.499943 0.499946 0.499948 0.49995
3.9 0.499952 0.499954 0.499956 0.499958 0.499959 0.499961 0.499963 0.499964 0.499966 0.499967
4 0.499968 0.49997 0.499971 0.499972 0.499973 0.499974 0.499975 0.499976 0.499977 0.499978
4.1 0.499979 0.49998 0.499981 0.499982 0.499983 0.499983 0.499984 0.499985 0.499985 0.499986
4.2 0.499987 0.499987 0.499988 0.499988 0.499989 0.499989 0.49999 0.49999 0.499991 0.499991
4.3 0.499991 0.499992 0.499992 0.499993 0.499993 0.499993 0.499993 0.499994 0.499994 0.499994
4.4 0.499995 0.499995 0.499995 0.499995 0.499996 0.499996 0.499996 0.499996 0.499996 0.499996
4.5 0.499997 0.499997 0.499997 0.499997 0.499997 0.499997 0.499997 0.499998 0.499998 0.499998
148 Eroare! Legătură incorectă.

Anexa 2. Funcţia  a lui Euler


0 0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0 nu exista 99.4326 49.4422 32.785 24.461 19.4701 16.1457 13.7736 11.9966 10.6162
0.1 9.5135 8.6127 7.8633 7.2302 6.6887 6.2203 5.8113 5.4512 5.1318 4.8468
0.2 4.5908 4.3599 4.1505 3.9598 3.7855 3.6256 3.4785 3.3426 3.2169 3.1001
0.3 2.9916 2.8903 2.7958 2.7072 2.6242 2.5461 2.4727 2.4036 2.3383 2.2765
0.4 2.2182 2.1628 2.1104 2.0605 2.0132 1.9681 1.9252 1.8843 1.8453 1.8081
0.5 1.7725 1.7384 1.7058 1.6747 1.6448 1.6161 1.5886 1.5623 1.5369 1.5126
0.6 1.4892 1.4667 1.445 1.4242 1.4041 1.3848 1.3662 1.3482 1.3309 1.3142
0.7 1.2981 1.2825 1.2675 1.253 1.239 1.2254 1.2123 1.1997 1.1875 1.1757
0.8 1.1642 1.1532 1.1425 1.1322 1.1222 1.1125 1.1031 1.0941 1.0853 1.0768
0.9 1.0686 1.0607 1.053 1.0456 1.0384 1.0315 1.0247 1.0182 1.0119 1.0059
1 1 0.9943 0.9888 0.9835 0.9784 0.9735 0.9687 0.9642 0.9597 0.9555
1.1 0.9514 0.9474 0.9436 0.9399 0.9364 0.933 0.9298 0.9267 0.9237 0.9209
1.2 0.9182 0.9156 0.9131 0.9108 0.9085 0.9064 0.9044 0.9025 0.9007 0.899
1.3 0.8975 0.896 0.8946 0.8934 0.8922 0.8912 0.8902 0.8893 0.8885 0.8879
1.4 0.8873 0.8868 0.8864 0.886 0.8858 0.8857 0.8856 0.8856 0.8857 0.8859
1.5 0.8862 0.8866 0.887 0.8876 0.8882 0.8889 0.8896 0.8905 0.8914 0.8924
1.6 0.8935 0.8947 0.8959 0.8972 0.8986 0.9001 0.9017 0.9033 0.905 0.9068
1.7 0.9086 0.9106 0.9126 0.9147 0.9168 0.9191 0.9214 0.9238 0.9262 0.9288
1.8 0.9314 0.9341 0.9368 0.9397 0.9426 0.9456 0.9487 0.9518 0.9551 0.9584
1.9 0.9618 0.9652 0.9688 0.9724 0.9761 0.9799 0.9837 0.9877 0.9917 0.9958
2 1 1.0043 1.0086 1.0131 1.0176 1.0222 1.0269 1.0316 1.0365 1.0415
2.1 1.0465 1.0516 1.0568 1.0621 1.0675 1.073 1.0786 1.0842 1.09 1.0959
2.2 1.1018 1.1078 1.114 1.1202 1.1266 1.133 1.1395 1.1462 1.1529 1.1598
2.3 1.1667 1.1738 1.1809 1.1882 1.1956 1.2031 1.2107 1.2184 1.2262 1.2341
2.4 1.2422 1.2503 1.2586 1.267 1.2756 1.2842 1.293 1.3019 1.3109 1.3201
2.5 1.3293 1.3388 1.3483 1.358 1.3678 1.3777 1.3878 1.3981 1.4084 1.419
2.6 1.4296 1.4404 1.4514 1.4625 1.4738 1.4852 1.4968 1.5085 1.5204 1.5325
2.7 1.5447 1.5571 1.5696 1.5824 1.5953 1.6084 1.6216 1.6351 1.6487 1.6625
2.8 1.6765 1.6907 1.7051 1.7196 1.7344 1.7494 1.7646 1.7799 1.7955 1.8113
2.9 1.8274 1.8436 1.86 1.8767 1.8936 1.9108 1.9281 1.9457 1.9636 1.9817
3 2 2.0186 2.0374 2.0565 2.0759 2.0955 2.1153 2.1355 2.1559 2.1766
3.1 2.1976 2.2189 2.2405 2.2623 2.2845 2.3069 2.3297 2.3528 2.3762 2.3999
3.2 2.424 2.4483 2.4731 2.4981 2.5235 2.5493 2.5754 2.6018 2.6287 2.6559
3.3 2.6834 2.7114 2.7397 2.7685 2.7976 2.8272 2.8571 2.8875 2.9183 2.9495
3.4 2.9812 3.0133 3.0459 3.0789 3.1124 3.1463 3.1807 3.2156 3.251 3.2869
3.5 3.3234 3.3603 3.3977 3.4357 3.4742 3.5133 3.5529 3.593 3.6338 3.6751
3.6 3.717 3.7595 3.8027 3.8464 3.8908 3.9358 3.9814 4.0277 4.0747 4.1223
3.7 4.1707 4.2197 4.2694 4.3199 4.3711 4.423 4.4757 4.5291 4.5833 4.6384
3.8 4.6942 4.7508 4.8083 4.8666 4.9257 4.9857 5.0466 5.1084 5.1711 5.2348
3.9 5.2993 5.3648 5.4313 5.4988 5.5673 5.6368 5.7073 5.7788 5.8515 5.9252
4 6 6.0759 6.153 6.2312 6.3106 6.3912 6.473 6.556 6.6403 6.7258
4.1 6.8126 6.9008 6.9902 7.0811 7.1733 7.2669 7.3619 7.4584 7.5563 7.6557
4.2 7.7567 7.8592 7.9632 8.0689 8.1762 8.2851 8.3957 8.508 8.622 8.7378
4.3 8.8553 8.9747 9.096 9.2191 9.3441 9.471 9.6 9.7309 9.8639 9.9989
4.4 10.1361 10.2754 10.4169 10.5606 10.7065 10.8548 11.0053 11.1583 11.3136 11.4714
4.5 11.6317 11.7946 11.96 12.128 12.2987 12.472 12.6482 12.8271 13.0089 13.1936
4.6 13.3813 13.5719 13.7656 13.9624 14.1624 14.3655 14.5719 14.7817 14.9948 15.2114
4.7 15.4314 15.655 15.8822 16.1131 16.3478 16.5862 16.8285 17.0748 17.325 17.5794
4.8 17.8379 18.1006 18.3676 18.6389 18.9147 19.1951 19.48 19.7696 20.064 20.3632
4.9 20.6674 20.9766 21.2908 21.6103 21.9351 22.2652 22.6008 22.942 23.2889 23.6415
5 24 24.3645 24.735 25.1118 25.4948 25.8843 26.2802 26.6829 27.0922 27.5085
5.1 27.9318 28.3621 28.7998 29.2448 29.6973 30.1575 30.6255 31.1014 31.5854 32.0776
5.2 32.5781 33.0872 33.6049 34.1314 34.6669 35.2116 35.7656 36.329 36.9021 37.4851
5.3 38.078 38.6811 39.2945 39.9186 40.5533 41.1991 41.8559 42.5241 43.2038 43.8954
5.4 44.5988 45.3145 46.0426 46.7834 47.537 48.3038 49.0839 49.8776 50.6851 51.5068
5.5 52.3428 53.1934 54.059 54.9397 55.8359 56.7478 57.6758 58.62 59.581 60.5588
5.6 61.5539 62.5666 63.5972 64.646 65.7134 66.7997 67.9053 69.0305 70.1757 71.3413
5.7 72.5276 73.7351 74.9641 76.2151 77.4884 78.7845 80.1038 81.4467 82.8137 84.2052
5.8 85.6217 87.0637 88.5317 90.0261 91.5474 93.0961 94.6729 96.2781 97.9124 99.5762
5.9 101.2702 102.9949 104.7509 106.5388 108.3593 110.2128 112.1001 114.0218 115.9786 117.9711
6 120 122.066 124.1698 126.3122 128.4939 130.7156 132.978 135.2821 137.6286 140.0182
Eroare! Legătură incorectă. 149

Anexa 3. Distribuţia student. Valorile în funcţie de p (probabilitatea) şi


n (numărul de grade de libertate)

n/p 0.95 0.9 0.85 0.8 0.75 0.7 0.65 0.6 0.55
1 6.28 3.075 1.961 1.374 1 0.726 0.509 0.325 0.158
2 2.913 1.884 1.384 1.06 0.816 0.617 0.444 0.289 0.142
3 2.352 1.637 1.249 0.978 0.764 0.584 0.424 0.277 0.137
4 2.131 1.533 1.189 0.941 0.74 0.569 0.414 0.271 0.134
5 2.015 1.476 1.155 0.918 0.726 0.559 0.408 0.267 0.132
6 1.938 1.44 1.134 0.904 0.717 0.553 0.404 0.265 0.131
7 1.891 1.412 1.119 0.895 0.711 0.549 0.401 0.263 0.13
8 1.856 1.394 1.108 0.888 0.706 0.546 0.399 0.262 0.13
9 1.83 1.381 1.1 0.882 0.703 0.543 0.398 0.261 0.129
10 1.81 1.37 1.093 0.878 0.7 0.542 0.396 0.26 0.129
11 1.794 1.362 1.088 0.875 0.697 0.54 0.395 0.26 0.129
12 1.78 1.354 1.083 0.872 0.695 0.539 0.394 0.259 0.128
13 1.769 1.349 1.079 0.869 0.694 0.537 0.394 0.258 0.128
14 1.759 1.343 1.076 0.867 0.692 0.537 0.393 0.257 0.128
15 1.751 1.339 1.073 0.866 0.691 0.536 0.393 0.257 0.128
16 1.744 1.335 1.071 0.864 0.69 0.535 0.392 0.257 0.128
17 1.738 1.332 1.069 0.863 0.689 0.534 0.392 0.256 0.127
18 1.732 1.329 1.067 0.861 0.688 0.534 0.391 0.256 0.127
19 1.728 1.326 1.065 0.86 0.688 0.533 0.391 0.256 0.127
20 1.723 1.324 1.064 0.859 0.687 0.533 0.391 0.256 0.127
21 1.719 1.322 1.063 0.858 0.686 0.532 0.39 0.256 0.127
22 1.716 1.32 1.061 0.858 0.686 0.532 0.39 0.255 0.127
23 1.712 1.318 1.06 0.857 0.685 0.532 0.39 0.255 0.127
24 1.71 1.317 1.059 0.856 0.685 0.531 0.39 0.255 0.127
25 1.707 1.315 1.058 0.856 0.684 0.531 0.39 0.255 0.127
26 1.704 1.314 1.057 0.855 0.684 0.531 0.389 0.255 0.127
27 1.702 1.313 1.057 0.855 0.684 0.531 0.389 0.255 0.127
28 1.7 1.311 1.056 0.854 0.683 0.53 0.389 0.255 0.127
29 1.698 1.31 1.055 0.854 0.683 0.53 0.389 0.255 0.127
30 1.696 1.309 1.055 0.853 0.683 0.53 0.389 0.255 0.127
150 Eroare! Legătură incorectă.

Anexa 4. Lista programelor MathCad folosite pentru generarea valorilor


Pentru anexa 1 :

x 0 .. 9

y 0 .. 45
x y . 10 x y
Ay 1, x 1
cnorm cnorm( 0 ) A0 , x 1
Ay 1, 0
100 100 10

Pentru anexa 2 :
x 1 .. 9

y 0 .. 60
x y . 10 x y
Ay 1, x 1
Γ A0 , x 1
Ay 1, 0
100 100 10
y . 10
y 1 .. 60 Ay 1, 1
Γ
100
Pentru anexa 3 :

t 0.158
p 9 , 8 .. 1 n 1 .. 30
p t
An , 0 n A0 , p 1 n 1
p . . . n
20 2
2 1 nπ Γ
x 10 2
An , p root 1 dx ,t
n n 1
2. Γ
0 2
Eroare! Legătură incorectă. 151

BIBLIOGRAFIE
1. Baron, T., Biji, E., - Statistică teoretică şi economică, Editura Didactică şi
Tovissi, L. Pedagogică, Bucureşti, 1991.
2. Biji, M., Biji, E. - Statistică teoretică, Editura Didactică şi Pedagogică,
Bucureşti, 1976.
3. Ciucu, G., Craiu, V., - Culegere de probleme de teoria probabilităţilor,
Săcuiu, I. Editura Tehnică, Bucureşti, 1966.
4. Ciucu, G., Craiu, V. - Introducere în teoria probabilităţilor şi statistică
matematică, Editura Didactică şi Pedagogică,
Bucureşti, 1971.
5. Ciucu, G., Craiu, V., - Statistică matematică şi Cercetări operaţionale,
Ştefănescu, A. vol.III, Editura Didactică şi Pedagogică, Bucureşti,
1978.
6. Crstici, B, ş.a. - Matematici speciale, Editura Didactică şi Pedagogică,
Bucureşti, 1981.
7. Dani, E., - Matematici aplicate în economie, Universitatea Cluj-
Mureşan, A. Napoca, 1988.
8. Cătuneanu, V.M - Bazele teoretice ale fiabilităţii, Editura Academiei,
Bucureşti, 1983
9. Gărlaşu, Şt. - Prelucrarea în timp real a semnalelor fizice, Editura
Scrisul Românesc, Craiova, 1978
10. Gârlaşu, Şt., - Fiabilitatea sistemelor, Universitatea „Eftimie
Gillich, N. Murgu”, Reşiţa, 1994.
11. Gărlaşu, Şt., - Introducere în analiza spectrală şi de corelaţie 1982,
Popp, C., Ionel, S. Editura Facla, Timişoara, 1982
12. Gillich, N., - Probabilităţi şi fiabilitate, Universitatea „Eftimie
Praisach, V. Murgu”, Reşiţa, 1995.
13. Iliescu, D.V., – Statistică şi toleranţe, Editura Tehnică, Bucureşti,
Vodă, V.Gh. 1977.
14. Iosifescu, M., Mihoc, - Teoria probabilităţilor şi statistică matematică,
Gh., Theodorescu, R. Editura Academiei R.S.R., Bucureşti, 1965.
15. Iosifescu, M. - Lanţuri Marcov finite şi aplicaţii, Editura Tehnică,
152 Eroare! Legătură incorectă.

Bucureşti, 1977.
16. Mihoc, Gh., Muja,A., - Bazele matematice ale teoriei fiabilităţii, Editura
Diatcu, E. Dacia, Cluj-napoca, 1976.
17. Mihoc, Gh., Urseanu, - Modele de analiză statistică, Editura Ştiinţifică şi
V., Ursianu, E. Enciclopedică, Bucureşti, 1982.
18. Popp, C. - Matematici pentru economişti, vol.III., Universitatea
„Eftimie Murgu”, Reşiţa, 1994.
19. Puiu, G., Nechita, E. - Calculul probabilităţilor şi elemente de statistică
matematică, (note de curs), Universitatea Bacău, 1996.
20. Trandafir, R. - Introducere în teoria probabilităţilor, Editura
Albatros, Bucureşti, 1979.
21. Velicescu, C – Fiabilitate în energetică, curs, Lito IPTV Timişoara,
1984.
22. Velicescu,C., – Fiabilitatea instalaţiilor electrice, culegere de
Oprea, L. probleme, Lito UP Timişoara, 1996.

S-ar putea să vă placă și