Documente Academic
Documente Profesional
Documente Cultură
ELEMENTE
DE
TEORIA PROBABILITĂŢILOR
şi
STATISTICĂ MATEMATICĂ
f(x)
- 0 x
REŞIŢA, 1998
2 Cuprins
CUPRINS
PREFAŢĂ ..................................................................................................................... 6
ELEMENTE DE TEORIA PROBABILITĂŢILOR
Capitolul 1 Noţiuni introductive ............................................................................ 8
1.1. Câmp de evenimente....................................................................................... 8
1.2. Noţiunea de probabilitate.............................................................................. 10
Capitolul 2 Câmp de probabilitate....................................................................... 13
2.1. Definiţie şi proprietăţi................................................................................... 13
2.2. Probabilităţi condiţionate. Evenimente independente. ................................. 13
2.3. Probabilitatea reuniunii evenimentelor compatibile..................................... 15
2.4. Probabilitatea intersecţiei evenimentelor dependente .................................. 15
2.5. Formula probabilităţii totale şi formula lui Bayes........................................ 16
2.6. Scheme probabilistice clasice....................................................................... 18
2.6.1. Schema bilei nerevenite......................................................................... 18
2.6.2. Schema bilei revenite............................................................................. 18
2.6.3. Schema lui Poisson ................................................................................ 20
2.7. Probleme rezolvate ....................................................................................... 20
Capitolul 3 Variabile aleatoare ............................................................................ 27
3.1. Variabile aleatoare discrete. Definiţie şi exemple. ....................................... 27
3.2. Operaţii cu variabile aleatoare discrete ........................................................ 28
3.3. Variabile aleatoare continue ......................................................................... 30
3.4. Funcţia de repartiţie ...................................................................................... 31
3.4.1.Funcţia de repartiţie pentru variabila aleatoare discretă......................... 32
3.4.2.Funcţia de repartiţie pentru variabila continuă....................................... 34
3.5. Funcţia de repartiţie bidimensională ............................................................ 36
3.6. Grafice pentru variabile aleatoare ................................................................ 37
3.6.1.Pentru v.a. discretă.................................................................................. 37
3.6.2.Pentru v.a. continuă, ............................................................................... 38
3.7. Probleme rezolvate ....................................................................................... 39
Capitolul 4 Caracteristici numerice ale variabilelor aleatoare ......................... 43
4.1. Caracteristici de grupare............................................................................... 43
4.1.1.Valoarea medie ....................................................................................... 43
4.1.2. Valoarea mediană .................................................................................. 44
4.1.3.Cuantile. ................................................................................................. 45
4.1.4.Valoarea modală..................................................................................... 46
4.1.5.Momente şi medii de ordin superior. ..................................................... 47
4.2.Caracteristici de împrăştiere.......................................................................... 48
4.2.1.Variabila abatere. Abaterea absolută medie........................................... 49
4.2.2.Dispersia. Abaterea medie pătratică....................................................... 50
4.2.3.Momente centrate (medii centrate). Covarianţa..................................... 51
4.2.4.Normata unei variabile aleatoare............................................................ 52
4.3.Caracteristici care dau informaţii privind forma distribuţiei......................... 53
4.4.Corelaţie şi regresie....................................................................................... 54
4.4.1.Proprietăţile coeficientului de corelaţie : ............................................... 55
4.4.2.Funcţia de regresie ................................................................................. 56
4.5. Probleme rezolvate ....................................................................................... 58
Capitolul 5 Funcţie caracteristică şi funcţie generatoare .................................. 63
5.1. Definiţia funcţiei caracteristice. Proprietăţi. ................................................ 63
5.2. Funcţie generatoare ...................................................................................... 64
5.3. Teorema de inversiune şi teorema de unicitate ............................................ 65
5.4. Probleme rezolvate ....................................................................................... 66
Capitolul 6 Repartiţii probabilistice clasice discrete ......................................... 70
6.1. Repartiţia binomială sau repartiţia lui Bernoulli.......................................... 70
6.2. Repartiţia multinomială................................................................................ 71
6.3. Repartiţia binomială cu exponent negativ.................................................... 72
6.4. Repartiţia hipergeometrică ........................................................................... 73
6.5. Repartiţia Poisson......................................................................................... 74
6.6. Repartiţia geometrică ................................................................................... 76
Capitolul 7 Repartiţii probabilistice clasice continue ........................................ 77
7.1. Repartiţia uniformă ...................................................................................... 77
7.2. Repartiţia normală ........................................................................................ 79
7.3. Repartiţia normală normată .......................................................................... 82
7.4. Repartiţia lognormală................................................................................... 84
7.5. Repartiţia gamma. ........................................................................................ 85
7.6. Repartiţia beta .............................................................................................. 88
7.6.1.Cazuri particulare .................................................................................. 90
4 Cuprins
PREFA[~
Autorii
8 Eroare! Legătură incorectă.
Proprietăţile implicaţiei
1. A⊂A (reflexivitate)
2. A⊂E, (∀)A (ultimul element)
3. Dacă A⊂B şi B⊂C, atunci A⊂C (tranzitivitate)
4. Φ⊂A, (∀)A (primul element)
5. Dacă A⊂B şi B⊂A atunci A=B, adică sunt echivalente (antisimetrie)
Proprietăţile reuniunii
1. A∪B=B∪A (comutativitate)
2. (A∪B) ∪C=A∪(B∪C) (asociativitate)
3. A⊂A∪B, B⊂A∪B
4. A∪A=A (idempotenţa)
5. A∪E=E (proprietăţile ultimului element)
6. A∪Φ=A (proprietăţile primului element)
Proprietăţile intersecţiei
1. A∩B=B∩A (comutativitate)
2. (A∩B) ∩C=A∩(B∩C) (asociativitate)
3. A∩(B∪C)=(A∩B) ∪(A∩C) (distributivitate)
10 Eroare! Legătură incorectă.
Definiţia 1. Fie E o mulţime nevidă. (E≠Φ) şi K o familie nevidă de părţi ale lui E.
Cuplul (E,K) se numeşte câmp de evenimente (finit sau infinit) dacă K verifică axiomele
unui trib (algebră) respectiv a unui trib borelian (σ- algebră) :
a) E∈K, Φ∈ K
b) ( ∀) A ∈ K ⇒ A ∈ K
c) A, B∈ K ⇒A∪B∈ K, A∩B∈ K
Vom caracteriza printr-un număr raţional 0≤p≤1, gradul de realizare (şansa realizării)
al fiecărui eveniment A dintr-un câmp de evenimente K . Un astfel de număr notat P(A) se
va numi probabilitatea evenimentului A.
nA
1. Definiţia statistică : P(A) = lim fn ( A), unde fn ( A) = se numeşte frecvenţa
n →∞ n
relativă a evenimentului A într-o serie de n repetări a unei experienţe ; nA este numărul
apariţiei evenimentului A în cele n încercări.
m
2. Definiţia clasică : P(A) = ; m este numărul de cazuri favorabile producerii
n
evenimentului A iar n este numărul cazurilor posibile, în ipoteza că toate cazurile sunt
posibile.
Eroare! Legătură incorectă. 11
Dacă (E,K ) este un câmp finit de evenimente, ale cărui evenimente elementare sunt
{e1, e2, …, en}=E, din definiţia axiomatică rezultă :
n
P(ei ) ≥ 0, i = 1,n; ∑ P(e ) = P(E) = 1
1
i
⎛m ⎞ m
m
P(A) = P⎜ U ei r ⎟ = ∑ P(ei r ) , deci P(A) = ,
⎝ r =1 ⎠ r = 1 n
adică raportul dintre numărul evenimentelor elementare favorabile evenimentului dat şi
numărul total de evenimente elementare ale câmpului.
Proprietăţi:
1. P(Φ)=0
2. P(A) = 1 - P(A ) , (∀ )A ∈ K
3. P(B\A)=P(B)-P(A), (∀)A,B∈K , A⊆B, iar în general :
P(B\A)=P(B)-P(A∩B)
4. P(A)≤P(B) dacă A⊆B ; A,B∈ K
5. 0≤P(A) ≤1, (∀)A∈ K
6. P(A∪B)=P(A)+P(B)- P(A∩B), (∀)A,B∈K (formula lui Poincaré)
⎛∞ ⎞ ∞
7. P⎜ U A n ⎟ ≤ ∑ P(A n ), (∀ ) { A n } n ∈N ⊂ K
⎝ 1 ⎠ 1
P(AI E) P(A )
PA ( E) = = =1
P( A ) P(A )
Dacă Ai∈K,, AI∩Aj=Φ (i≠j) atunci : (A∩Ai)∩(A∩Aj)= Φ şi deci :
⎛ ⎛ ∞ ⎞⎞ ⎛∞ ⎞
⎛∞ ⎞
P ⎜
⎝
A I ⎜ U A
⎝ 1 ⎠⎠i ⎟ ⎟ P ⎜ U
⎝ 1
( A I A i ) ⎟
⎠ ∞
PA ⎜ U A i ⎟ =
⎝ 1 ⎠ P(A )
=
P( A )
= ∑P
1
A (A i )
⎛ n ⎞ n n n
P⎜ U A i ⎟ =
⎝ 1 ⎠
∑ P(A ) − ∑ P(A I A ) + ∑ P(A I A I A
1
i
i , j =1
i j
i , j, k = 1
i j k ) +K
(2.8)
i< j i < j< k
⎛ n ⎞
+ ( −1) n −1 P⎜ I A i ⎟
⎝ i =1 ⎠
⎛ n ⎞ ⎛ n −1
⎞ (2.10)
⎝ i =1 ⎠
( )
P⎜ I A i ⎟ = P(A1 ) ⋅ P(A 2 / A 1 ) ⋅ P A 3 A 1 I A 2 ⋅K⋅P⎜ A n
⎝
I
i =1
Ai ⎟
⎠
⎛ n-1 ⎞ ⎛ n ⎞
unde : A i ∈ K , i = 1, n şi P⎜ I A i ⎟ ≠ 0 . În practică, de obicei nu se calculează P⎜ I A i ⎟
⎝ 1 ⎠ ⎝ i =1 ⎠
ci o margine inferioară a sa, dată de inegalitatea lui Boole :
⎛ n ⎞ n (2.11)
P⎜ I A i ⎟ ≥ ∑ P(A i ) − ( n − 1) ,
⎝ i =1 ⎠ 1
⎡n ⎤ n
(
P(A ) = P ⎢U AI Bi ⎥ = ) ∑ P( A I B ) . i
⎣1 ⎦ 1
n (2.12)
P(A ) = ∑ P( B ) ⋅ P(A / B ) ,
1
i i
numită formula probabilităţii totale. Această formulă reduce calculul lui P(A) la calculul
probabilităţilor cauzelor şi a probabilităţilor condiţionate de fiecare cauză. Deoarece într-o
experienţă apare cu siguranţă unul şi numai unul din evenimentele Bi, se mai spune că
sistemul complet de evenimente {B1, B2, …, Bn} este o „desfacere a evenimentului sigur
E”, iar evenimentele Bi se numesc „cauze” sau „ipoteze”.
Eroare! Legătură incorectă. 17
P( Bi ) ⋅ P(A / Bi ) P( B ) ⋅ P(A / Bi )
P( Bi / A ) = = n i
P(A )
∑ P( B j ) ⋅P(A / B j )
1
(2.13)
numită formula lui Bayes (formula probabilităţii cauzelor sau formula ipotezelor).
Toate problemele în care intervin formulele prezentate pot fi modelate pe următorul
tip de aplicaţie :
Fie 5 urne din care două de compoziţie K1 având trei bile albe şi patru bile negre, o
urnă de compoziţie K2 cu două bile negre şi nici una albă precum şi două urne de
compoziţie K3 având zece bile albe şi două negre. Se cere :
a) Care este probabilitatea ca dintr-o urnă luată la întâmplare să extragem o bilă albă
?
b) Ştiind că bila extrasă e albă, care este probabilitatea ca ea să provină dintr-o urnă
de compoziţie K3 ?
Soluţie : Notăm cu A evenimentul extragerii unei bile albe şi cu Bi (i=1,2,3)
evenimentul extragerii unei bile dintr-o urnă de compoziţie Ki (i=1,2,3). Atunci,
evenimentele B1, B2, B3 sunt cauze relative la evenimentul A.
3
a) Cu formula (2.12) avem : P(A ) = ∑ P( B ) ⋅ P(A / B ) , unde :
1
i i
Generalizare :
s s
unde : N = ∑ a k , n = ∑ xk , xk ≤ a k , n ≤ N .
1 1
2.6.2. Schema bilei revenite (schema lui J. Bernoulli sau schema binomială)
Se consideră urna de mai sus, cu bilele de cele două culori (albe şi negre).
Presupunem că se cunoaşte probabilitatea p a evenimentului A de a extrage o bilă
albă : p=P(A). Extragem din urnă câte o bilă, de n ori, punând de fiecare dată bila extrasă
înapoi. Care este probabilitatea Pn(x) ca din cele n bile extrase, de x ori să avem bila albă
şi de (n-x) ori bila neagră ?
Una din situaţiile în care se realizează evenimentul A de x ori şi A de (n-x) ori, este :
Eroare! Legătură incorectă. 19
A I AIKI A I AI A IKI A
1442443 1442443
de x ori de ( n − x ) ori
n! (2.16)
Pn ( x) = C xn p x q n − x = pxq n − x
x!( n − x)!
Remarcă : Deoarece bila revine în urnă, fiecare extragere se face din acelaşi conţinut, deci experienţa
se repetă în aceleaşi condiţii.
Cunoaşterea probabilităţii p=P(A), la o extracţie poate fi înlocuită cu situaţia de a cunoaşte conţinutul
urnei. Schema lui Bernoulli se concretizează în practică printr-o selecţie repetată spre deosebire de schema
bilei nerevenite, care corespunde unei selecţii nerepetate.
Notă : Dacă N>>n, aceeaşi condiţie menţinându-se şi pentru perechile a şi x, respectiv b şi n-x, atunci
se arată că cele două probabilităţi date în schemele I şi II sunt aproximativ egale, adică :
Cax C nb − x
≈ C xn p x q n − x
C nN
Exemplu : Se aruncă o monedă de 15 ori. Care este probabilitatea de a obţine de zece
ori stema ?
Soluţie : Avem n=15, x=10, p=1/2, q=1/2, deci :
10 5
⎛ 1⎞ ⎛ 1⎞
P15 (10) = C ⎜ ⎟ ⋅ ⎜ ⎟ = 0,0917
10
⎝ 2⎠ ⎝ 2⎠
15
n! (2.17)
Pn ( x1 ,K, x s ) = ⋅ p x1 L p sx s ,
x1 !K x s ! 1
unde x1 bile sunt de culoarea 1,…, xs bile de culoarea s, adică : dintr-o urnă cu bile de s
culori, se extrag n bile, cu revenirea acestora în urnă.
20 Eroare! Legătură incorectă.
Raţionând ca în schema lui Bernoulli, probabilitatea cerută este coeficientul lui xkyn-k
din produsul :
(p1x+q1y) (p2x+q2y)… (pnx+qny)
Exemplu : La o specializare (de exemplu ştiinţa materialelor) sunt în anul I 22
studente şi 20 studenţi, în anul II 16 studente şi 10 studenţi, iar în anul III sunt 20 de
studente şi 6 studenţi. Care este probabilitatea ca primul student din fiecare an de studiu
sosit la cursuri într-o zi, să fie de sex feminin ?
Soluţie : Aplicând schema polinomială, avem :
p1=22/42, q1=20/42 ; p2=16/26, q2=10/26 ; p3=20/26, q3=6/26
Probabilitatea cerută este dată de coeficientul lui xy2 din produsul :
⎛ 22 20 ⎞ ⎛ 16 10 ⎞ ⎛ 20 6 ⎞
( p1x + q 1y)( p 2 x + q 2 y)( p 3x + q 3y) = ⎜ x + y⎟ ⎜ x + y⎟ ⎜ x + y⎟
⎝ 42 42 ⎠ ⎝ 26 26 ⎠ ⎝ 26 26 ⎠
22 10 6 20 16 6 20 20 10
obţinem : p = ⋅ ⋅ + ⋅ ⋅ + ⋅ ⋅ ≈ 0,255 .
42 26 26 42 26 26 42 26 26
cazurilor favorabile lui A este egal cu numărul pieselor defecte, adică 4. Din definiţia
clasică rezultă P(A)=4/40=0,1.
3) La fabricarea unui dispozitiv pot să apară defecte datorită materialului folosit,
datorită prelucrării pieselor componente şi datorită montajului. Dispozitivul se
consideră bun dacă nu are nici unul din aceste defecte. Din practică se cunoaşte că
datorită materialului folosit 5% din piese au defecte, datorită prelucrării 8% au
defecte, iar datorită montajului 4% au defecte. Se cere probabilitatea minimă ca un
dispozitiv să fie bun.
Soluţie : Notăm cu A evenimentul ca piesele componente să nu aibă defecte din
cauza materialului folosit, cu B ca ele să nu aibă defecte de fabricaţie şi cu D evenimentul
ca dispozitivul să nu aibă defecte de montaj. Se cere P(A∩B∩D), cunoscând
( ) ( ) ( )
P A = 0,05 , P B = 0,08 , P D = 0,04 . Din inegalitatea lui Boole deducem :
sau : P(A∩B∩D)≥P(A)+P(B)+P(D)-(3-1)=0,95+0,92+0,96-2=0,83
4) Trei vânători trag simultan asupra unui iepure. Vânătorul nr.1 ocheşte iepurele cu
probabilitatea 0,9, al doilea cu 0,8 şi respectiv al treilea cu probabilitatea 0,7. Se
cere probabilitatea ca iepurele să scape dacă toţi trei vânătorii trag simultan asupra
iepurelui.
Soluţie : Notăm cu Ai (i=1,2,3,) evenimentul ca vânătorul i să ochească iepurele.
( ) ( ) ( ) ( )
(Sau : p = P A1 I A 2 I A 3 = P A1 ⋅ P A 2 ⋅ P A 3 = 0,1 ⋅ 0,2 ⋅ 0,3 = 0,006 )
5) O urnă conţine 4 bile albe (a1, a2, a3, a4) şi două bile negre (n1, n2). Se extrag
simultan două bile. Se cere :
1. Să se precizeze probele experienţei
2. Se consideră evenimentele :
A1 – obţinerea a două bile negre
A2 – obţinerea a două bile albe
A3 – obţinerea a cel puţin unei bile negre
22 Eroare! Legătură incorectă.
Deci : P(A∩B)-P(A)⋅P(B)=x-(a+x)(b+x)=x-[ab+x(a+b+x)]≥x-ab-x=-ab≥-1/4
7) Într-un câmp de probabilitate {E,K ,P} fie evenimentele A1, …,An astfel încât
n
⎛ n ⎞
∑1 P ( A i )〉 n − 1 . Să se arate că P⎜ I A i ⎟ 〉0 .
⎝ 1 ⎠
n n
⎛ n ⎞ ⎛ n ⎞
Soluţie : I1 i
A = E − U1 i ⎝ I1 i ⎠
A ; P ⎜ A ⎟ = 1 − P ⎜ U Ai ⎟
⎝ 1 ⎠
⎛ n ⎞ n n n
Dar P⎜ U A i ⎟ ≤ ∑ P (A i ) = ∑ [1 − P (A i )] = n − ∑ P (A i )〈 n − (n − 1) = 1
⎝ 1 ⎠ 1 1 1
⎛ n ⎞
Rezultă : P⎜⎜ I A i ⎟⎟〉 0 .
⎝ 1 ⎠
8) Un grup de 2n băieţi şi 2n fete este împărţit la întâmplare în două grupuri egale. Să
se găsească probabilitatea p ca fiecare grup să aibă acelaşi număr de băieţi şi de fete,
⎛ n+
1
⎞
apoi să se estimeze p folosind formula lui Stirling ⎜⎜ n! = 2π ⋅ n 2 e − n , pentru n mare ⎟⎟ .
⎝ ⎠
Soluţie : Notăm cu F mulţimea fetelor şi cu B mulţimea băieţilor. Un eveniment
elementar este o submulţime a lui F∪B care are 2n elemente. Numărul modurilor în care
din 4n băieţi şi fete se pot alege 2n este C 24 nn . Din toate acestea, evenimente elementare
favorabile sunt acele submulţimi ale lui F∪B pentru care numărul fetelor este egal cu
numărul băieţilor şi este egal cu n.
Dar, din 2n fete se pot alege n în C n2 n moduri şi tot la fel pentru băieţi. Deci, n băieţi
şi n fete se pot selecta în C2n n ⋅ C2n n = (C2n n ) moduri, acesta fiind numărul evenimentelor
2
p=
(C ) n 2
2n
=
( 2 n!) 2 ( 2 n!) 2
⋅ =
( 2 n!) 4
2n
C 4n ( n!) 4 4 n! ( 4 n!)(n!) 4
Aproximând cu formula lui Stirling, avem :
4
⎡ 2n+ ⎤
1
⎢ 2π ( 2 n ) 2 ⎥ ⋅ e
− 8n
⎣ ⎦ 2
p≈ =
4n+
1
⎛ n+ ⎞
1 4 nπ
2π ( 4 n ) 2 e− 4 n ⎜ 2π n 2 ⎟ e− 4 n
⎝ ⎠
11) Într-o cutie sunt aşezate la întâmplare 40 de becuri de 100W, provenind de la trei
fabrici : 15 de la F1, 18 de la F2, 7 de la F3. Care este probabilitatea ca un
cumpărător, care este servit cu 10 becuri alese la întâmplare, să primească 5 de la
F1, 3 de la F2 şi 2 de la F3 ?
Soluţie : Suntem în cazul schemei bilei nerevenite (sau neîntoarse) cu 3 culori :
5
C15 ⋅ C18
3
⋅ C 27
P10 (5,3,2 ) = = 0,0607
C10
40
12) Se aruncă un zar de 5 ori. Care este probabilitatea de a obţine de 3 ori faţa cu 6
puncte şi câte o dată feţele cu 2 şi 3 puncte ?
Soluţie : Se aplică schema lui Bernoulli cu 6 culori. Experienţa se repetă în aceleaşi
condiţii şi n=5, x1=0, x2=1, x3=1, x4=0, x5=0, x6=3 ; p1=p2=…=p6=1/6. Deci :
0 0 0 3
5! ⎛ 1⎞ 1 1 ⎛ 1⎞ ⎛ 1⎞ ⎛ 1⎞
P5 ( 0,1,1,0,0,3) = ⎜ ⎟ ⋅ ⋅ ⋅ ⎜ ⎟ ⋅ ⎜ ⎟ ⋅ ⎜ ⎟ = 0,0026
0!1!1! 0! 0! 3! ⎝ 6⎠ 6 6 ⎝ 6⎠ ⎝ 6⎠ ⎝ 6⎠
13) O piesă fabricată este considerată corespunzând standardului dacă îndeplineşte
condiţiile A, B, C. Datele statistice arată că : 90% din piese îndeplinesc condiţia
A, 87% îndeplinesc condiţia B, 92% îndeplinesc condiţia C. Să se calculeze
probabilitatea ca o piesă fabricată să corespundă standardului.
Soluţie : Este necesar să se realizeze evenimentul S=A∩B∩C. Necunoscând în ce
relaţii sunt condiţiile A, B, C, vom folosi inegalitatea lui Boole pentru n=3 :
Eroare! Legătură incorectă. 25
P(A∩B∩C)≥P(A)+P(B)+P(C)-2, adică :
P(S)≥0,90+0,87+0,92-2=0,69. Deci : 0,69≤P(S)≤1.
14) Trei fabrici F1,F2, F3 trimit acelaşi produs spre vânzare într-un magazin, în
cantităţi proporţionale cu numerele 4, 1 şi 5. Se cunosc proporţiile respective ale
produselor cu defecte primite de la fiecare fabrică : 2%, 3% şi respectiv 1,5%. O
cantitate de produse în valoare de 50.000 lei care a fost vândută este restituită
având defecte care o fac de neîntrebuinţat, iar suma este restituită cumpărătorului.
Ce sume trebuie imputate fiecărei fabrici care a trimis marfa dacă nu se ştie de la
ce fabrică provine produsul respectiv ?
Soluţie : Sumele imputate fabricilor Fi (i=1,2,3) vor fi proporţionale cu probabilităţile
pi (i=1,2,3) ca marfa restituită să fie de la fabrica respectivă. Calculăm deci aceste
probabilităţi, notând cu Ei evenimentul ca marfa să fie de la Fi şi cu X evenimentul ca
marfa să fie defectă.
Avem următoarele evenimente dependente :
X/Ek - marfa defectă aparţinând fabricii Fk, cu probabilitatea P(X/Ek)
Ek/X - marfa care aparţine fabricii Fk este defectă, cu probabilitatea P(Ek/X)
Aplicând formula lui Bayes, obţinem :
P( E i ) ⋅ P( X / E i )
p i = P( E i / X) = 3 ; i = 1,2,3
∑ P( E
1
k ) ⋅ P( X / E ki )
75 ⋅ 50000
s3 = = 20270lei (rotunjite la numere întregi).
185
15) La un concurs de matematică, trei candidaţi primesc câte un plic care conţine n
(n>3) bilete cu probleme de algebră şi geometrie. Cele 3 plicuri conţin respectiv
câte 1, 2, 3 subiecte de algebră. Fiind examinaţi, cei trei candidaţi extrag fiecare
câte un bilet din plic. Extragerea făcându-se la întâmplare, să se afle probabilitatea
următoarelor evenimente :
a) Toţi candidaţii să fie examinaţi la geometrie
b) Nici un candidat să nu fie examinat la geometrie
c) Cel puţin un candidat să fie examinat la algebră
Soluţie : Aplicăm schema lui Poisson, notând cu p0,3 probabilitatea cerută la punctul
a) Aceasta este coeficientul lui x0y3 din polinomul :
⎛1 n − 1 ⎞⎛ 2 n − 2 ⎞⎛ 3 n−3 ⎞ 1
⎜ x+ y⎟ ⎜ x + y⎟ ⎜ x + y⎟ = 3 [16x 3 + (11n − 18) x 2 y + ( 6n 2 − 22 n + 18) xy 2 +
⎝n n ⎠⎝ n n ⎠⎝ n n ⎠ n
+ ( n − 1)( n − 2 )( n − 3) y ]
3
( n − 1)( n − 2 )( n − 3)
Deci, p 0,3 = .
n3
16
Probabilitatea cerută la punctul b) va fi p 3,0 = 3 (coeficientul lui x3y0 din
n
dezvoltarea de mai sus). Pentru punctul c) trecem la evenimentul contrar punctului a)
adică :
6n 2 + 11n + 6
p = 1 − p 0,3 =
n3
Eroare! Legătură incorectă. 27
Aceste două condiţii caracterizează v.a.d., iar n poate fi un număr finit sau infinit.
Exemple :
1) Considerăm experienţa aruncării unei monede. Drept sistem complet de
evenimente se consideră acela format din evenimentele elementare A (apariţia
1
stemei) şi A (faţa opusă). Se ştie că P( A ) = P( A ) = , deci putem defini v.a.d
2
{ }
prin : x : A,A → R , x(A)=0, x ( A ) = 1, iar tabloul de distribuţie va fi :
⎛0 1⎞
x : ⎜⎜ 1 1⎟
⎟
⎝2 2⎠
2) Să se scrie distribuţia v.a.d ce reprezintă suma punctelor obţinute la aruncarea a
două zaruri.
28 Eroare! Legătură incorectă.
Notăm cu A2, A3, …A12 evenimentele care arată că la aruncarea celor două zaruri s-
au obţinut puncte a căror sumă este 2,3,…,12. Acestea formează un sistem complet de
evenimente şi deci putem defini v.a.d x astfel încât x(Ai)=i, i = 2 ,12 . Tabloul de repartiţie
va fi :
⎛ 2 3 4 5 6 7 8 9 10 11 12 ⎞
x : ⎜⎜ 1 2 3 4 5 6 5 4 3 2 1⎟
⎟
⎝ 36 36 36 36 36 36 36 36 36 36 36⎠
3) În exemplul precedent să considerăm evenimentele :
B1 - suma punctelor obţinute să fie cel mult 5
B2 - suma punctelor obţinute să fie 6, 7, 8, sau 9
B3 - suma punctelor obţinute să fie cel puţin 10
Definim v.a.d y:{B1,B2,B3}→ R prin y(B1)=1, y(B2)=2, y(B3)=3.
Tabloul de distribuţie va fi deci :
⎛ 1 2 3⎞
y : ⎜⎜ 10 20 6⎟
⎟
⎝ 36 36 36⎠
⎛ 1⎞
−1⎜ ⎟
x : ⎜ xi ⎟
⎝ p i ⎠ i =1, n
Eroare! Legătură incorectă. 29
n m
Se poate arăta că ∑∑p
i = 1 j= 1
ij = 1 . Dacă variabilele sunt independente (adică corespund
Cazuri particulare :
a) Dacă constanta c se consideră o variabilă cu tabloul ⎛⎜⎝ 1⎞⎟⎠ , atunci suma (c+x) este
c
v.a.d cu tabloul :
⎛ c + xi ⎞
( c + x) : ⎜ ⎟
⎝ p i ⎠ i =1, n
y
b) Dacă x ≠ 0, vom defini raportul prin yx-1
x
Observaţie : În operaţiile cu v.a.d convenim să scriem valorile variabilei în ordine crescătoare şi o
singură dată. Dacă una din valori apare de două sau mai multe ori, se va scrie o singură dată, iar
probabilităţile acesteia se adună între ele.
Exemplu : Dându-se variabilele independente :
x
se cer operaţiile : − 5x, x 2 , y-1 , x + y, xy, , y - 2,9
y
Soluţie:
⎛ 1 1 ⎞
− 5x : ⎛⎜⎝ 0,4 0,5 0,1⎞⎟⎠ ; x 2 ⎛
- 10 0 5 ⎜ 0 1 4 ⎞⎟ -1 ⎜ 1⎟
: ⎝ 0,5 0,1 0,4⎠ ; y : 6 3
⎜ ⎟
⎝ 0,3 0,2 0,5⎠
Constatăm astfel că se poate defini o funcţie f:[a,b]→ R care atribuie fiecărei valori
x0∈[a,b], factorul de proporţionalitate f(x0) corespunzător probabilităţii ca variabila x să
ia valori în [x0, x0+dx].
x : ⎛⎜⎝ f(x)⎞⎟⎠
x
x ∈[ a , b ]
Deci, orice tablou de această formă, în care f(x) verifică proprietăţile 1) şi 2) de mai
sus, reprezintă tabloul de distribuţie al unei v.a. continue.
Exemplu :
⎛ x ⎞
a) Tabloul x : ⎜⎝ 3x 2 ⎟⎠ reprezintă o v.a. continuă, deoarece : f(x)=3x2≥0,
x ∈[ 0,1]
(∀)x∈[0,1] şi ∫ 3x dx = 1 .
0
2
(∀)x∈[1,e] şi ∫ ln xdx = 1 .
1
Proprietăţi :
P1) 0≤F(x0)≤1, (∀)x0 ∈R
P2) F(-∞)=0 şi F(∞)=1
P3) F(β)-F(α)=P(α≤x<β)
P4) F este nedescrescătoare
⎛ ⎞
F( x 0 ) = P(x < x 0 ) = P⎜ U ( x = x i )⎟ =
⎝ xi <xo ⎠
∑ P( x = x ) = ∑ p
xi <x0
i
xi <x0
i
pi=1
p1+…+pn-1
p1+p2
p1
x1 0 x2 x3 … xn-1 xn
Fig.3.1
Exemplu : Să se determine F(x) pentru v.a.d x având tabloul de repartiţie :
x0 ≤ -1 ⇒ F(x)=P(x<x0)=P(Φ)=0
-1<x0≤ 2 ⇒F(x)=P(x<x0)=P(x=-1)=0,1
2<x0 ≤ 4 ⇒ F(x)=P(x<x0)=P((x=-1)∪ (x=2))= P(x=-1)+P(x=2)=0,1+0,7=0,8
x0 >4 ⇒ F(x)=P(x<x0)=P(E)=1
Deci :
⎧0 , x≤1
⎪ 0,1 , −1< x ≤ 2
F( x ) = ⎨0,8 , 2<x≤4
⎪1 , x>4
⎩
Graficul este dat în fig.3.2.
0,8
0,1
-1 0 Fig.3.2. 2 4
P(0≤x<5)=F(5)-F(0)=1-0,1=0,9
Este util de reţinut următoarea teoremă (fără demonstraţie) :
F( x 0 ) = ∫ f (x)dx
a
Relaţiile de mai sus exprimă legătura dintre funcţia de repartiţie F(x) şi densitatea de
probabilitate (sau de repartiţie) f(x) : F’(x)=f(x).
Proprietatea P3 devine :
⎧ 0 , x≤a
⎪⎪ x
F( x ) = ⎨∫ f (u )du , a < x ≤ b (u = var iabila de int egrare) ,
⎪a
⎪⎩ 1 , x>b
a b x
Fig.3.3
Observaţii :
Eroare! Legătură incorectă. 35
F( x ) = ∫ f ( x ) dx , x ∈ [a,b]
a
Exemple :
⎛ x ⎞
1) Să se determine funcţia de repartiţie pentru v.a. continuă x : ⎜⎝ 3x 2 ⎟⎠ , să se
x ∈[ 0 ,1]
⎛1 3⎞
reprezinte grafic şi să se calculeze P⎜ ≤ x< ⎟
⎝2 4⎠
Soluţie :
⎧0 , x ≤ 0 , deoarece F(x) = P(Φ ) = 0
⎪⎪ x
F( x ) = ⎨x 3 , 0 < x ≤ 1 , deoarece ∫ 3x 2 dx = x 3
⎪ 0
⎪⎩1 , x > 1 , deoarece P(x) = P(E) = 1
Graficul este prezentat în fig.3.4.
F(x)
0 1 x
Fig.3.4
3
4
⎛1 3⎞ ⎛3⎞ ⎛1⎞ 19
P⎜ ≤ x < ⎟ = F⎜ ⎟ − F⎜ ⎟ = ∫ 3x dx =
2
⎝2 4⎠ ⎝4⎠ ⎝2⎠ 1 64
2
⎪⎩ x>
x2 − 1 2
Soluţie :
F(−∞ ) = lim F( x ) = a − 2 b = 0 ; F(∞ ) = lim F(x ) = a + b − 2 = 1
x → −∞ x →∞
Din sistemul : a-2b=0, a+b=3 rezultă a=2 şi b=1, iar din condiţia ca F(x) să fie
⎛ ⎛ π⎞ ⎛ π⎞ ⎛ π⎞⎞
continuă ⎜ l s ( 0) = l d ( 0) = F( 0) şi l s ⎜ ⎟ = l d ⎜ ⎟ = F⎜ ⎟ ⎟ se obţine c=1.
⎝ ⎝ 2⎠ ⎝ 2⎠ ⎝ 2⎠⎠
Proprietăţi :
1) Dacă x1≤ x1’, x2≤x2’ atunci F(x1,x2)≤F(x1’,x2’) adică I⊂I’.
2) 0≤F(x1,x2)≤ 1
3) P(a1≤X1<b1, a2≤X2<b2)=F(b1,b2)-F(a1,b2)-F(a2,b1)+F(a1,a2)
∂2F
f ( x1 , x2 ) = ; dacă f(x1,x2) există şi este continuă, atunci :
∂x1∂x2
x1 x 2 x1 x 2
F ( x1 , x2 ) = ∫ ∫ f (u , u )du du
−∞ −∞
1 2 1 2 şi ∫ ∫ f (u , u )du du
−∞ −∞
1 2 1 2 =1
Dacă v.a. X1, X2 sunt independente şi au densităţile de repartiţie f1(x1), f2(x2) atunci :
f(x1,x2)=f1(x1)⋅ f2(x2).
Notă : În mod absolut identic, cele de mai sus se pot generaliza pentru o variabilă aleatoare n-
dimensională X=(X1,…,Xn)∈Rn şi astfel se defineşte funcţia de repartiţie multidimensională .
În planul xOy se determină punctele Mi(xi,pi) prin unirea cărora se pot trasa curbe
(grafice). Una din aceste curbe se obţine unind punctele prin segmente de dreaptă. Se
obţine curba de distribuţie a variabilei X. (fig,.3.5)
f(x)
pi Mi
M2
Mn
M1
O x1 x2 … xi … xn x
Fig. 3.5
38 Eroare! Legătură incorectă.
f(x)
Mi
M2
Mn
M1
O x1 x2 … xi … xn x
Fig. 3.6
b
X : ⎛⎜ f (xx ) ⎞⎟ , unde f(x)≥0 (funcţia densitate) şi ∫ f ( x )dx = 1 .
⎝ ⎠ x∈[ a , b ] a
f(x) P(xi<X<x2)
y=f(x)
O a x1 x2 b x
Fig. 3.7
Deci :
p0=P5(0)=(0,2)5 0,0003
p1=P5(1)=5⋅0,8⋅(0,2)4 0,0064
p2=P5(2)=10⋅(0,8)2⋅(0,2)3 0,0512
p3=P5(3)=10⋅(0,8)3⋅(0,2)2 0,2048
p4=P5(4)=5⋅(0,8)4⋅(0,2) 0,4096
p5=P5(5)=(0,8)5 0,3277
X : ⎛⎜ 0,0003
0
0,
1
0064 0,
2
0512 0,
3
2048 ,
4
4096 0,
5 ⎞
3277 ⎟
⎝ ⎠
⎧ 0 , x≤0
⎪0,0003 , 0 < x ≤1
⎪0,0067 , 1< x ≤ 2
⎪
F( x ) = ⎨0,0579 , 2<x≤3
⎪0,2627 , 3< x ≤ 4
⎪0,6723 , 4<x≤5
⎪⎩ 1 , x >5
λx
3) Se consideră f ( x ) = e − λ ; x=0,1,2,3,… ; λ >0 (funcţia densitate de
x!
probabilitate a distribuţiei Poisson).
Soluţie :
a) f(x)≥0 (evident când λ >0)
A doua condiţie se va scrie :
∞
λx ∞
λx ∞
λx
∑e
x =0
−λ
x!
=e ∑
−λ
x = 0 x!
=e − λ e λ = 1 , deoarece ∑
x = 0 x!
este seria lui eλ . Deci f(x) este o
densitate de repartiţie.
n (n − 1) K (n − x + 1) x n − x n (n − 1) K[n − ( x − 1)] n x ⋅ p x
b) f n ( x ) = C nx p x q n − x = ⋅p ⋅q = ⋅ ⋅
x! nx x!
n n − 1 n − ( x − 1) (np) x n − x
⋅ q n−x = ⋅ L ⋅ q
n n n x!
λ λ
Notăm np=λ, adică p = , q = 1 − şi obţinem :
n n
n−x n −x
n n − 1 n − ( x − 1) λx ⎛ λ ⎞ ⎛ 1⎞ ⎛ x − 1 ⎞ λx ⎛ λ ⎞
⎛ λ⎞
f n (x) = ⋅ L ⋅ ⎜1 − ⎟ = 1⎜1 − ⎟ L ⎜1 − ⎜1 − ⎟⎟ ⋅ ⎜1 − ⎟
n n n x! ⎝ n⎠ ⎝ n⎠ ⎝ ⎝ n ⎠ x! ⎝
n⎠ n⎠
⎛ k⎞
Presupunând n mare iar p mic dar astfel încât np=λ să fie constant, factorii ⎜1 − ⎟ ,
⎝ n⎠
n −x
⎛ λ⎞ ⎛ λ⎞
k=1,2,…x-1 tind către 1 ; ⎜1 − ⎟ → e − λ şi ⎜1 − ⎟ → 1.
⎝ n⎠ ⎝ n⎠
λx − λ
Deci : lim f n ( x ) = e
n →∞ x!
Observaţii :
a) Această aproximare a legii binomiale (Bernoulli) prin legea de distribuţie a lui Poisson presupune
îndeplinite următoarele condiţii :
- probabilitatea p să fie mică (motiv pentru care legea lui Poisson este numită legea micilor
probabilităţi)
- p să fie mic în raport cu n, adică realizarea evenimentului cu probabilitatea p, în n probe este rară
(legea evenimentelor rare)
b) Comparând densităţile de repartiţie ale celor două distribuţii observăm că densitatea de repartiţie a
distribuţiei binomiale depinde de doi parametri (n şi p) iar cea a distribuţiei Poisson doar de parametrul λ.
4) Într-o anumită perioadă (de vârf), o centrală telefonică primeşte 420 de apeluri pe
oră. Ştiind că centrala poate da 20 de legături / minut şi considerând îndeplinite
condiţiile distribuţiei Poisson, să se calculeze probabilitatea evenimentului prin
42 Eroare! Legătură incorectă.
care apelând un număr de telefon prin centrală, să nu-l putem obţine timp de un
minut.
Soluţie :
V.a. X reprezentând numărul de apeluri telefonice primite la centrală într-un minut,
λx
are deci o distribuţie Poisson, cu funcţia densitate de probabilitate : f (x) = e −λ ,
x!
420
parametrul λ fiind numărul de apeluri / primiri. În cazul nostru, λ = =7.
60
7x
Deci : f ( x ) = e − 7 şi se cere P(X>20)=1-P(X≤20).
x!
Avem :
7x −7 ⎛ 7 72 7 20 ⎞
20 20
1
P(X > 20) = 1 − ∑ f ( x ) = 1 − e ∑ −7
= 1 − e ⎜⎜1 + + +L+ ⎟⎟ ≈ 1 − 7 ⋅1096,08 ≈ 0,04
x =0 x = 0 x! ⎝ 1! 2! 20! ⎠ e
5) Să se arate că dacă variabilele aleatoare X şi Y sunt egale aproape sigur atunci ele
au aceeaşi repartiţie.
Soluţie :
Fie B mulţimea punctelor în care X şi Y diferă, adică B={X≠Y}. Prin ipoteză, această
mulţime este de măsură (respectiv probabilitate) nulă : P(B)=0.
Avem incluziunea : {X∈A}⊂{Y∈A}∪B, unde A este orice submulţime măsurabilă a
mulţimii în care X şi Y iau valori.
Rezultă : P(X∈A)≤P(Y∈A)+P(B)=P(Y∈A)
Analog, {Y∈A}⊂{X∈A}∪B⇒ P(Y∈A)≤P(X∈A)+P(B)=P(X∈A)
Din cele două inegalităţi deducem că P(X∈A)= P(Y∈A), deci au aceeaşi repartiţie.
Eroare! Legătură incorectă. 43
⎧ n
⎪ ∑ x i pi , în cazul discret
⎪ i =1 (4.1)
M (X) = ⎨ b
⎪ xf ( x )dx , în cazul continuu
⎪⎩∫a
Proprietăţi :
1) x1≤M(X)≤xn, în cazul discret
a≤M(X)≤b, în cazul continuu
2) M(c)=0, c=constantă
3) M(cX)=cM(X)
4) M(X+Y)=M(X)+M(Y)
5) M(XY)=M(X)⋅M(Y) dacă X şi Y sunt independente
6) Dacă X, Y sunt v.a.d. astfel încât există M(X2) şi M(Y2), atunci are loc
inegalitatea lui Schwartz :
( ) ( )
M (XY ) ≤ M X 2 ⋅ M Y 2
Exemple :
1) Se dă v.a.d. X cu tabloul
X : ⎛⎜ −
0,
1 3
1 0,7 0
8 ⎞
,2 ⎟⎠
⎝
Deducem M(X)=-1⋅0,1+3⋅0,7+8⋅0,2=3,6
44 Eroare! Legătură incorectă.
X : ⎛⎜ 2 ⎞⎟
x
,
⎝ 3x ⎠ x∈[0,1]
1 1
∫ x ⋅ 3x dx = 3∫ x dx =
2 3
avem : M(X) = 3
4
0 0
M (X / A ) = ∑ x i P( X = x i / A ) (4.2)
i∈I
Dacă X este v.a. discretă sau continuă, atunci numărul real Me pentru care :
P(X≥Me)≥1/2≤P(X≤Me), (4.4)
se numeşte mediană.
x ∞
1 (4.6)
−∞
∫ f (x)dx = ∫ f (x)dx =
x
2
Din punct de vedere geometric, Me este abscisa punctului prin care trece paralela la
Oy, care împarte în două părţi egale aria limitată de curba de ecuaţie y=f(x)şi de axa Ox.
Eroare! Legătură incorectă. 45
Exemple :
⎛0 3⎞
1) Pentru v.a.d. X : ⎜ 1 1 ⎟ funcţia de repartiţie F(x) va fi :
⎜ ⎟
⎝2 2⎠
⎧0 , x ≤ 0
⎪1 1
F( x ) = ⎨ , x ∈ (0,3], F( x ) = (∀)x ∈ (0,3]
⎪2 2
⎩1 , x > 3
0+3
Deci, Me este orice valoare din (0,3] şi vom lua M e = = 1,5
2
3) V.a. continuă X : ⎛⎜ 2 ⎞⎟
x
, are funcţia de repartiţie :
⎝ 3x ⎠ x∈[0,1]
⎧0 , x≤0
⎪ 1
F( x ) = ⎨x 3 , x ∈ (0,1], F( x ) =
⎪ 2
⎩1 , x >1
4.1.3.Cuantile.
Valoarea mediană poate furniza în unele situaţii, indicaţii mai bune despre repartiţia
unei variabile aleatoare decât valoarea medie. Este firesc deci, să extindem noţiunea de
mediană în vederea obţinerii unei posibilităţi mai mari în studiul funcţiilor de repartiţie.
x1 x2 x3 ∞
1
∫
−∞
dF( x ) = ∫
x1
dF( x ) = ∫
x2
dF( x ) = ∫
x3
dF( x ) =
4
; x1, x2, x3 sunt cuartile.
Astfel :
F(x1)≤1/4 şi F(x1+0)≥1/4
F(x2)≤1/4+F(x1)≤1/2 şi F(x2+0)≥1/2
F(x3)≤1/4+F(x2)≤3/4 şi F(x3+0)≥3/4
Observăm că a doua cuantilă x2 coincide cu mediana.
Raportată la valoarea medianei, cuartilele x1 şi x3 se numesc cuantila inferioară
(mică) respectiv cuantila superioară (mare).
Fiind notată cu Mo este valoarea cea mai probabilă a variabilei aleatoare (în cazul discret)
şi respectiv abscisa punctului de maxim al funcţiei densitate de repartiţie, f(x) (în cazul
continuu).
Dacă f(x) are mai multe puncte de maxim atunci v.a. X se numeşte plurimodală.
Pentru repartiţiile simetrice unimodale, valoarea medie M(X) coincide cu moda Mo. Deci
:
în cazul discret, Mo este valoarea pe care X o ia cu cea mai mare probabilitate, iar în
cazul continuu este numărul (abscisa) în care f(x) are valoarea maximă. În cazul v.a.d. Mo
poate să nu fie unic.
Eroare! Legătură incorectă. 47
În fig. 4.1 se poate vedea moda în cazul v.a. discrete, iar în fig. 4.2 în cazul v.a.
continue.
P(X=xi) f(x)
O Mo x O Mo x
Exemple :
2) Pentru v.a.d. dată de ⎛⎜ 0−.21 00.3 01.1 04.1 05.3 ⎞⎟ , avem două valori modale: 0 şi 5.
⎝ ⎠
x∈[0 ,1]
[ ]
max f ( x ) = 3x 2 x =1 = 3 (abscisa punctului de maxim este 1).
⎧ n (4.9)
1
⎪r
⎪
∑ x ir p i , în cazul discret
η r (X) = [M r (X)] r
1
=⎨ b
⎪r
∫ x f (x )dx , în cazul continuu
r
⎪
⎩ a
r
Valoarea medie a variabilei X se numeşte momentul absolut de ordinul r al
variabilei X :
( ) = M( )= ∑ x (4.10)
n r
r
Mr X X i pi
1
Exemple :
1
3 3
M n = ∫ x n 3x 2 dx = , n= n
0
n+3 n +3
4.2.Caracteristici de împrăştiere.
Deoarece caracteristicile de grupare nu pot oferi nici o indicaţie asupra împrăştierii
(concentrării) valorilor variabilei faţă de valoarea de grupare, sunt necesare caracteristici
numerice care să respecte gradul de împrăştiere a valorilor variabilei între ele şi a acestora
faţă de valoarea medie.
Eroare! Legătură incorectă. 49
Se constată că M(
X-m
)
0 dacă X
constantă şi acest număr se poate considera
ca şi caracteristică de împrăştiere a v.a. faţă de medie (m).
Exemple :
1) Pentru v.a.d. X : ⎛⎜ −
0,
1 3
1 0, 7 0
8 ⎞ , cu variabila abatere (X-3,6) dată de tabloul :
,2 ⎟⎠
⎝
− 4,6 0,6 4,4 ⎞
(X − 3.6) : ⎛⎜ ⎟.
⎝ 0,1 0,7 0,2 ⎠
Se verifică direct că M(X-3,6) = M(X)-3,6=0 (media a fost calculată în exemplul
precedent fiind egală cu 3,6).
2) Pentru v.a. dată mai sus, considerăm :
continue ⎛⎜ 2 ⎞⎟
x
.
⎝ 3x ⎠ x∈[0,1]
A fost calculată anterior media M(X)=m=3/4. Variabila abatere este :
50 Eroare! Legătură incorectă.
3 x − 3 / 4⎞
(X − ) : ⎛⎜ 2 ⎟
4 ⎝ 3x ⎠ x∈[0,1]
Observăm că M(X-3/4)=0 iar abaterea absolută medie va fi :
1
⎛ 3⎞
M⎜⎜ X − ⎟⎟ = ∫ x − 3 / 4 ⋅ 3x 2 dx
⎝ 4⎠ 0
⎧ 3 3
⎪x − 4 , dacă x ≥ 4
x − 3/ 4 = ⎨
3 3
⎪ − x , dacă x <
⎩4 4
3/ 4 1
⎛ 3⎞
Deci : M⎜⎜ X − ⎟⎟ = 3 ∫ − ( x − 3 / 4) x dx + 3 ∫ ( x − 3 / 4) x 2 dx = 0.1582
2
⎝ 4⎠ 0 3/ 4
Deci :
⎧n (4.13)
⎪⎪∑ ( x i − m) p i , în cazul discret
2
D(X) = σ 2 = ⎨ bi =1
⎪ ( x − m) 2 f ( x )dx, în cazul continuu
⎪⎩∫a
Proprietăţi :
Eroare! Legătură incorectă. 51
Demonstraţiile fiind simple, rămân la discreţia cititorului, pentru o mai bună fixare a
cunoştinţelor. Totodată, reţinem :
a. Dacă şi sunt constante iar Y= X+ , atunci : D(Y)= 2D(X)
b. Dacă i (i=1,n) sunt constante iar Xi (i=1,n), v.a.d. independente două câte două,
atunci : D( 1X1+ … + nXn) =( 1)2 D(X1) + … + ( n )2 D(Xn)
⎛ n ⎞ n
Sau : D⎜ ∑ λ i X i ⎟ = ∑ λ2i D(X i )
⎝ 1 ⎠ 1
Prin definiţie, rădăcina pătrată a dispersiei se numeşte abatere medie pătratică ().
Deci, D(X) = σ şi D(X) = 2. Abaterea are aceeaşi dimensiune (unitate de măsură) ca
şi variabila aleatoare.
Exemple :
(X − 3.6) 2 : ⎛⎜
21,16 0,36 19,36 ⎞
⎝ 0,1 0,7 0,2 ⎟⎠
Rezultă : D(X) = M[(X-3,6)2] = 21,16 0,1 + 0,36 0,7 + 19,36 0,2 = 6,24
(Sau calculăm : M2(X)=M(X2)=19,2 şi apoi D(X)= M2-m2=19,2-12,96=6,24)
[
μ r = M r (X − m ) = M (X − m )
r
] (4.15)
Deci :
⎧ n
⎪⎪ ∑ ( x i − m) p i ,
r
în cazul discret
μ r (X) = ⎨ b i =1 (4.16)
⎪ ( x − m) r f ( x )dx, în cazul continuu
⎪⎩∫a
care se obţin din (x-m)r folosind binomul lui Newton şi proprietăţile mediei. În
particular :
μ 0 = 1, μ 1 = 0, μ 2 = D(X), μ 3 = M 3 − 2M 1 M 2 + 2M 13 (4.18)
X : ⎛⎜ −
0,
1 3
1 0,7 0
8 ⎞
,2 ⎟⎠
⎝
x − 3,6
Deci : z = , având tabloul de distribuţie :
6,24
α2 =
[
M (X − M (X) )
3
]= μ 3
(4.24)
( D( X ) )
3
σ 3
β=
[
M (X − M(X ))
4
μ
= 44
] (4.25)
D (X )
2
σ
E = β−3 (4.26)
Dacă E 3 ( 3) distribuţia se numeşte de tip leptokurtic iar dacă E 3 ( 3)
distribuţia este de tip platykurtic.
4.4.Corelaţie şi regresie
Fie { ,K ,P} un câmp borelian de probabilitate şi X,Y două v.a. definite pe acest
câmp. Notăm M(X)=m1 şi M(Y)=m2.
Se verifică uşor că :
cov(X, Y) (4.28)
ρ(X, Y) =
D( X ) ⋅ D( Y )
1
∞ ∞ (4.30)
ρ(X, Y) =
D( X ) D( Y )
∫
− ∞− ∞
∫ (x − m1 )( y − m 2 )f (x, y)dxdy
Coeficientul de corelaţie dat de (4.28) se poate scrie şi sub forma :
M (XY) − M (X)M (Y) (4.31)
ρ(X, Y) = ,
D( X ) D( Y )
[ ] [
M[(X − m1 )(Y − m 2 )] ≤ M (X − m1 ) M (Y − m 2 ) = D(X)D(Y)
2 2
] (4.33)
ρ(X, X) =
[
M (X − m 1 )
=1
2
] (4.34)
D( X )
ρ(X,−X) =
[
M − (X − m 1 )
=1
2
] (4.35)
D( X )
c) Între v.a. X şi Y există o relaţie liniară dacă şi numai dacă 2(X,Y)=1.
Pentru demonstraţie, să presupunem că între v.a. X şi Y există o relaţie liniară de
forma Y=aX+b ; a≠0, b – constante. Avem : m2=am1+b şi în baza formulei (4.28) şi a
relaţiei (4.27) obţinem :
ρ(X, Y) =
M[(X − m 1 )(aX + b − am1 − b )]
=
[
M a (X − m 1 )
2
, adică :
]
D(X) ⋅ D(aX + b) a D( X )
a ⎧− 1, a < 0 ; ρ 2 (X, Y) = 1
ρ(X, Y) = =⎨
a ⎩ 1, a > 0
X − m1 Y − m2
u= şi v = ,
D( X ) D( Y )
observăm că :
[
M (u ± v )
2
] =
[
M (X − m 1 )
+
2
]
M (Y − m 2 )
±2
[
M (uv)
2
]
D( X ) D( Y ) D( X ) D ( Y )
M (uv) = ρ(X, Y) = m1 ,
[ ]
adică : M (u ± v ) = 2 ± 2(m 1) = 0 şi u v=0 aproape peste tot în . Înlocuind u şi v
2
aici, deducem :
m 1 D( Y ) D( Y )
Y = M (Y) ± m X,
D( X ) D( X )
4.4.2.Funcţia de regresie
Considerăm un vector aleator n-dimensional X=(X1,X2,…,Xn) şi funcţia de repartiţie
condiţionată a v.a. Xn de variabilele X1,…,Xn-1 : F(xn x1,…,xn-1).
atunci :
M (X A) =∑ x i P(X = x i A) (4.36)
i∈I
∞ (4.37)
M ( X) = ∑ P( A n ) M ( X A n )
n =1
Eroare! Legătură incorectă. 57
D( X 1 X 2 ) (4.41)
a 0 = M (X 2 ) − a 1 M (X 1 ) = M (X 2 ) − ρ M(X 1 )
D( X 1 )
De aici, rezultă că dacă :
M(X2 X1)=a0+a1X1 şi M(X1 X2)=b0+b1X2,
atunci :
σ2 (4.42)
M ( X 2 X 1 ) − M ( X 2 ) = ρ( X 1 , X 2 ) [X 1 − M (X 1 )]
σ1
σ1 (4.43)
M ( X 1 X 2 ) − M ( X 1 ) = ρ( X 1 , X 2 ) [X 2 − M (X 2 )]
σ2
σ1 (4.45)
x − M ( X 1 ) = ρ( X 1 , X 2 ) [ y − M (X 2 )] ,
σ2
58 Eroare! Legătură incorectă.
σ2 σ
se numesc drepte de regresie, iar coeficienţii ρ şi ρ 1 se numesc coeficienţi de
σ1 σ2
regresie liniară. Ecuaţia (4.44) reprezintă dreapta de regresie a lui X2 faţă de X1, iar
ecuaţia (4.45) reprezintă dreapta de regresie a lui X1 faţă de X2. În sens geometric, a1 este
panta dreptei de regresie (sau de estimare), în unităţi ale abaterii standard. În calculul
corelaţiei, coeficientul a1 arată cu cât se modifică variabila X2 când X1 se modifică cu o
unitate, adică răspunde tocmai la problema regresiei.
În cazul corelaţiei directe, a1>0 iar în cazul corelaţiei inverse a1<0.
Zicem că o corelaţie este directă sau pozitivă când variaţiile a două fenomene se
produc în acelaşi sens, iar în caz contrar corelaţia este inversă sau negativă. Parametrul a0
(termenul liber) de regulă nu are o semnificaţie independentă, ci una de calcul, putând
avea sens negativ.
Funcţia de modelare liniară îşi găseşte aplicaţie şi atunci când variaţiile variabilelor
nu urmează legea progresiei aritmetice dar ele sunt mici şi deci curba descrisă este foarte
aproape de o linie dreaptă. Multe legături statistice se înscriu pe curbe diferite, definite de
ecuaţii de regresie neliniare, cum ar fi :
y * = a 0 + a 1 x + a 2 x 2 (legătură de tip parabolic)
1
y* = a 0 + a1 (legătură de tip hiperbolic)
x
y * = a 0 x a1 (legătură de tip funcţie putere)
1
P(X ≥ λM(X) ) ≤ , (∀)λ > 1 .
λ
Soluţie :
∞ λm ∞ ∞ ∞
m = M (X) = ∫ xf ( x )dx = ∫ xf (x )dx + ∫ xf (x )dx ≥ ∫ xf (x )dx ≥ λm ∫ f (x )dx = λm[1 − F(λm)]
0 0 λm λm λm
De aici,
1 1
1 − F(λm) = 1 − P(X < λm) ≤ sau P(X ≥ λm) ≤
λ λ
2) Se consideră funcţia :
a sin x , x ∈ [0, π]
f ( x ) = ⎧⎨
⎩0, în afara intervalului
a) Să se determine constanta reală a astfel ca f să fie densitatea de probabilitate a
unei v.a.
b) Să se determine funcţia de repartiţie corespunzătoare
⎛ π⎞
c) Dacă X are această repartiţie, să se calculeze P⎜ 0 ≤ X < ⎟
⎝ 6⎠
d) Să se calculeze Me(X)
e) Să se calculeze M(X) şi o limită superioară pentru P(X 5M(X)),
Soluţie :
∞ π
1
a)
−∞
∫ f (x )dx = a ∫ sin xdx = 2a = 1 ⇒ a = 2
0
x x
F( x ) = ∫ f (u )du, f(u) ≥ 0, deci : F(x) = ∫ f(u)du,
−∞ 0
x
1 1 x
F( x ) =
20∫ sin udu = (1 − cos x ) = sin 2 , dacă x ∈ (0, π]
2 2
π x π
1
F( x ) = ∫ f (u )du + ∫ f (u )du = ∫ sin udu = 1, dacă x > π
0 π
20
b) Deci :
⎧ 0 , x≤0
⎪ x
F( x ) = ⎨sin 2 , x ∈ (0, π]
⎪ 2
⎩ 1 , x>π
60 Eroare! Legătură incorectă.
⎛ π⎞ 1 6
2− 3
c) P⎜ 0 ≤ X < ⎟ = ∫ sin udu = şi reprezintă aria cuprinsă între graficul
⎝ 6⎠ 2 0 4
π
funcţiei densitate de probabilitate, axa Ox şi dreptele x=0, x = . (fig.4.3)
6
f(x) F(x)
1
2
π π π
0 x 0 x
6 2 2
Fig. 4.3
x 1 x π π
d) F[Me(X)]=1/2 conduce la sin 2 = , = , x = . Din punct de vedere
2 2 2 4 2
geometric, mediana este abscisa punctului prin care trece paralela la Oy care
împarte în două părţi egale aria mărginită de y=f(x) şi axa Ox.
+∞
1
π
1⎛ π
π
⎞ π
e) M (X) = ∫ xf ( x )dx = ∫ x sin xdx = ⎜ − x cos x 0 + ∫ cos xdx ⎟⎟ =
⎜
−∞
20 2⎝ 0 ⎠ 2
Aplicând inegalitatea lui Markov pentru =5 : P(X 5M(X)) = P(X 5 /2) 1/5
1 −x
3) Se dă funcţia f(x) = e , x ∈ R . Să se arate că este o densitate de repartiţie.
2
Dacă X este v.a. urmând această repartiţie, să se găsească M0(X) şi D(X).
Soluţie : Se observă că f(-x) = f(x), ( )x R .
∞ ∞
1 −x
∫−∞f (x )dx = 2∫0 2 e dx = −e
−x ∞
f ( x ) > 0, (∀)x ∈ R şi 0 =1
Funcţia f(x) dată este densitatea de repartiţie Laplace, deci X este o v.a. Laplace
(fig.4.4). Pe grafic se observă că pentru x=0 obţinem valoarea cea mai probabilă (funcţia
modală sau dominanta) : M0(X)=1/2
f(x)
1
2
x
Eroare! Legătură incorectă. 61
Fig. 4.4
Pentru calculul dispersiei aplicăm formula : D(X)=M2(X)-M12(X)
∞ ∞
1
M 1 (X) = ∫ xf ( x )dx = ∫ xe dx = L = 0
−x
−∞
2 −∞
∞ ∞ ∞
1
M 2 (X) = ∫ x f ( x )dx = ∫ x 2 e dx = ∫ x 2 e dx = L = 2
2 −x −x
−∞
2 −∞ 0
Deci : D(X)=2.
(
4) Fie {E,K ,P} un câmp de probabilitate cu E = A, A (modelează o experienţă )
Bernoulli) şi P(A)=p (0,1). Se repetă experienţa de o infinitate de ori şi i se
asociază v.a. X ce reprezintă numărul de eşecuri obţinute până la producerea
evenimentului A. Să se scrie distribuţia v.a. A şi să se afle M(X) şi D(X).
Soluţie : Avem o repartiţie geometrică. Valorile lui X sunt : 0,1, … k, … Când X ia
valoarea k înseamnă că s-a produs de k ori contrariul lui A şi în final evenimentul A,
adică :
P(X = k ) = P(A I K I A I A) = q k p ; q = 1 − p
Tabloul de repartiţie al lui X va fi deci :
L⎞
X : ⎛⎜
0 1 L k
⎝ p pq L pq
k
L⎟⎠
∞ ∞
1
Avem ∑ pq k = p∑ q k = p
k =0 k =0 1− q
= 1 (s-a folosit suma progresiei geometrice conver-
∞ ∞ ∞
q
gente, cu raţia q<1). Apoi, M (X) = ∑ kpq k = p∑ kq k = şi M (X 2 ) = ∑ k 2 pq k =
k =0 k =1 p k =0
∞
pq (1 + q ) q (1 + q )
= p∑ k 2 q k = =
k =0 p3 p2
(În calcule s-a folosit seria geometrică şi derivata sa, cu raţia q (0,1))
q(1 + q) q 2 q
Deci, D(X)=M(X2)-[M(X)]2= − =
p2 p2 p2
62 Eroare! Legătură incorectă.
1 − q − p + pq k + j pq k q j
P(A / B) = = =qj
1 − q − p + pq k
pq k
( )
Fie X şi Y două v.a. reale. Variabila Z=X+iY i = − 1 se numeşte v.a. complexă.
Prin analogie cu numerele complexe, variabilei Z îi putem ataşa biunivoc punctul aleator
(X,Y) – imaginea lui.
Expresia :
e itX = cos tX + i sin tX, t ∈ R (5.1)
e itX = cos 2 tX + sin 2 tX = 1 , deci eitX este mărginită. Valoarea mediei a acestei v.a.
Prin definiţie, valoarea medie a v.a. eitX se numeşte funcţie caracteristică a v.a. X,
adică :
⎧∑ p k e itx k , în cazul discret
⎪⎪ k∈I
ϕ( t ) = M (e itX ) = ⎨ ∞ (5.2)
⎪ ∫ e f ( x )dx , în cazul continuu
itx
⎪⎩− ∞
1) (0)=1 ; (t) 1, ( ) t R
2) (t) este uniform continuă pe R
3) ϕ(− t ) = ϕ( t ) (conjugata)
−∞ in
(n)
unde înseamnă derivata de ordinul n a lui .
7) Dacă ( )n N, ( )M( X n), atunci (t) se poate dezvolta în serie de puteri
:
∞
(it ) k
ϕ( t ) = ∑ M (X k )
k = 0 k!
8) Dacă (t) este reală, atunci : 1- (2t) 4[1- (t)], ( )t R (teorema lui
Raikov)
9) ( )t, h R are loc relaţia :
(t)- (t+h) 2 2 (0)[ (0)-Re (h)]
unde Re (h) este partea reală a lui (h).
Observaţie :
Odată cu (t) se poate considera şi ln (t)= (t) care se numeşte a doua funcţie caracteristică.
⎛x ⎞
Fie v.a.d. X cu tabloul de repartiţie X : ⎜ i ⎟
⎝ p i ⎠ i =1, n
Se numeşte funcţie generatoare ataşată v.a. X, valoarea medie a variabilei etX, adică :
(5.3)
g( t ) = M (e tX ) = ∑ p i e tx i
n
i =1
Avem :
Eroare! Legătură incorectă. 65
⎧n k (5.5)
⎪⎪ ∑ x i p i e tx i
, în cazul discret
g ( k ) ( t ) = ⎨ bi =1 ,
⎪ x k e tx f ( x )dx , în cazul continuu
⎪⎩∫a
Iar pentru t=0 : g(k)(0)=Mk(X)=M(Xk), deci funcţia generatoare se poate utiliza în
calculul momentelor de diferite ordine, prin derivare în t=0.
Exemple : Fie X o v.a.d. urmând o lege binomială de distribuţie :
X : ⎛⎜ k k n − k ⎞⎟
k
⎝ n q ⎠ k = 0, n
C p
Avem : g( t ) = M (e tX ) = ∑ e tk C kn p k q n − k = ∑ C kn (e t p ) q n − k = (pe t + q )
n n
k n
k =0 k =0
Apoi :
g’(t)=npet(pet+q)n-1 ; g’(0)=np=M1(X)=M(X)
g”(t)=np[et(pet+q)n-1+(n-1)pe2t(pet+q)n-2] şi g”(0)=np(np+q)=M2(X)=M(X2) etc.
⎛ ⎞
2
t
−
Pe care o integrăm prin părţi ⎜ f = e 2 , g ′ = cos tx ⎟
⎜ ⎟
⎝ ⎠
t2
− sin tx
Rezultă : f ' = − te 2
,g = .
x
t2 ∞ t2
1 sin tx − 2 ∞ 1 −
Deci : F' ( x ) =
π x
e 0 + ∫
πx 0
t sin tx ⋅e 2 dt
1 −
∞ t2 (5.8)
F' ( x ) = ∫
πx 0
t sin tx ⋅e 2 dt
∞
1 dx
ϕ( t ) = ∫ e itx ,
π −∞ 1 + x 2
care se calculează printr-o metodă din teoria funcţiilor complexe, utilizând funcţia
e itz
complexă H(z) = pe care o vom integra, pentru t>0, pe conturul () din fig.5.1,
1+ z2
unde R>1 astfel ca punctul (0,1) asociat lui i să intre în domeniu.
Utilizând reziduul lui H, avem :
1
2πi (∫Γ )
RezH = H(z)dz
(!
t>0
i
-R 0 R
Fig.5.1
1 ⎛⎜ itx dx ⎞
R
dz ⎟
Deci : RezH = ∫ e
2πi ⎜⎝ − R 1 + x 2
+ ∫ e itz
1+ z2 ⎟
(γ) ⎠
itz
dz e πR
Dar : ∫ e itz
≤ πR ≤ → 0 când R .
γ 1+ z 2
1+ R 2
1+ R2
Soluţie :
1 n
Avem Y = ∑ X k şi notăm cu ϕ k , k = 1, n , respectiv funcţiile caracteristice ale
n 1
variabilelor Xk respectiv Y. Atunci :
⎛ it ⋅ 1 ∑ X k ⎞
n
⎟ = M⎛⎜ e n itX k ⎞
1
ϕ k ( t ) = ϕ( t ) = M (e ) = M⎜⎜ e 1
n
⎜∏
itY n
⎟
⎜ ⎟⎟ ⎟
⎝ ⎠ ⎝ k =1 ⎠
k =1 ⎝ n ⎠ ⎣ ⎝ n ⎠⎦
Funcţia caracteristică determină unic repartiţia, aşa că Y urmează aceeaşi repartiţie
Cauchy.
3) Să se afle densitatea de repartiţie a variabilei X cu funcţia caracteristică
3 2
ϕ( t ) = e − a t
, a>0, folosind teorema de inversiune.
Soluţie :
Notăm cu F funcţia de repartiţie a lui X şi x1<x2 două puncte de continuitate ale lui F.
Conform teoremei de inversiune,
∞
1 e − itX1 − e − itX 2
2π −∫∞
F( x 2 ) − F( x 1 ) = ϕ( t )dt
it
Alegem x1=0 şi x2=x, deci :
∞ ∞
1 1 − e −itx 1 1 − e −itx − a 2 t 2
2π −∫∞ it 2π −∫∞ it
F( x ) − F(0) = ϕ( t ) dt = ⋅e dt =
∞ ∞ ∞
1 1 − cos tx + i sin tx −a 2 t 2 1 1 − cos tx − a 2 t 2 1 sin tx − a 2 t 2
= ∫
2π − ∞ it
e dt = ∫
2π − ∞ it
e dt +
2π −∫∞ t
e dt = I 1 + I 2
Funcţia din I1 este impară iar cea din I2 este pară în raport cu t, deci : I1=0 şi
∞ ∞
1 sin tx − a 2 t 2 1 sin tx − a 2 t 2
I2 = 2 ⋅ ∫
2π 0 t
e dt şi F( x ) − F(0) = ∫
π0 t
e dt .
Derivăm în raport cu x :
∞
1
∫
2 2
F' ( x ) = cos tx ⋅ e − a t dt şi integrăm prin părţi :
π0
Eroare! Legătură incorectă. 69
2 2 2 2 sin tx
u = e − a t , dx=cos tx dt " du = −2 ta 2 e − a t dt şi v =
x
Rezultă :
∞
2a 2 1
⋅ ∫ t sin tx ⋅ e − a t dt
2 2
F' ( x ) =
x π0
Apoi :
∞
1
∫
2 2
F′′( x ) = − t sin tx ⋅ e − a t dt (derivata lui F’ – iniţială)
π0
Deci :
2a 2 F′′ x
F′( x ) = − F′′( x ) sau = − 2 , de unde prin integrare :
x F′ a
x2
1 x2 − 2
ln F′ = − 2 ⋅ + C sau F′( x ) = ke 4 a unde k=eC (constantă).
2a 2
Determinăm pe k trecând la limită pentru x în expresia :
x x2
− t
F( x ) = k ∫ e 4a 2
dt făcând schimbarea de variabilă u =
−∞
2a
∞
1
lim F( x ) = 1 ⇒ 2ak ∫ e − u du = 1 ⇒ 2ak ⋅ π = 1, k =
2
x →∞
−∞ 2a π
Deci :
x2
1 −
f ( x ) = F' ( x ) = e 4a 2
(densitatea unei repartiţii normale).
2a π
70 Eroare! Legătură incorectă.
(6.1)
X : ⎛⎜ k k n − k ⎞⎟
k
; q = 1 − p; p, q > 0
⎝ C n p q ⎠ k = 0, n
Deci :
⎧ 0 , x≤0
⎪ qn , x ∈ (0,1]
⎪1
⎪∑ C kn p k q n − k , x ∈ (1,2]
⎪
F( x ) = ⎨ k = 0
⎪ n −1 L L L (6.2)
⎪∑ C k p k q n − k , x ∈ (n − 1, n ]
⎪k =0 n
⎪⎩ 1 , x>n
n (6.3)
M(X) = ∑ kC kn p k q n − k = np (valoarea medie)
k =1
n
(Plecăm de la binomul lui Newton : (px + q ) n = ∑ C kn p k x k q n − k , pe care o derivăm
0
unde :
Eroare! Legătură incorectă. 71
n (6.5)
M 2 (X) = ∑ k 2 C kn p k q n − k = np + n (n − 1)p 2 (momentul de ordinul II),
k =1
n! (6.9)
Pn (k 1 , k 2 , L , k r ) = P(B k1 , k 2 ,L, k r ) = p 1k1 p k2 2 K p kr r
k 1 ! k 2 !K k r !
k 1 ,K, k r k 1 !K k r !
unde : t=t1e1+…+trer.
Valoarea medie şi dispersia vor fi :
1 ⎛ ∂ϕ ⎞⎟ (6.11)
M (α j ) = ⎜ = np j ;1 ≤ j ≤ r
i ⎜⎝ ∂t j ⎟⎠
t =0
1 ⎛ ∂ 2ϕ ⎞
[
D(α j ) = M 2 (α j ) − M (α j ) = 2 ⎜ 2 ⎟ − np j =
2
]
i ⎜⎝ ∂t j ⎟⎠ (6.12)
t =0
= n 2 p 2j + np j − np 2j − n 2 p 2j = np j (1 − p j ) = np j q j
⎛ pe it ⎞
n
(6.14)
ϕ( t ) = ⎜⎜ ⎟⎟
⎝ 1 − qe
it
⎠
1 ⎛ ∂ϕ ⎞ n (6.15)
M 1 (X ) = ⎜ ⎟ =
i ⎝ ∂t ⎠ t =0 p
1 ⎛ ∂ 2ϕ ⎞ n (n + q ) (6.16)
M 2 (X) = 2 ⎜⎜ 2 ⎟⎟ =
i ⎝ ∂t ⎠ t =0 p2
……………………………………………………………………..
nq
D(X) = M 2 − M 12 = 2 (6.17)
p
în care : max(0, n-b) k min(n,a), dar pentru simplitatea scrierii se poate lua k = 0, n .
n
Având în vedere relaţia : ∑C
k =0
k
a C nb − k = C an+ b , se verifică uşor că sunt îndeplinite
relaţie care arată că, atunci când numărul biletelor creşte nemărginit, Pn(k;a,b) tinde către
probabilitatea Pn(k) ce defineşte repartiţia binomială.
Acest rezultat este firesc deoarece extragerea unei bile din urnă influenţează cu atât
mai puţin compoziţia urnei cu cât numărul iniţial de bile din urnă este mai mare.
⎛ k ⎞ (6.24)
X: ⎜ λk
e −λ ⎟
⎜ ⎟
⎝ k! ⎠ k = 0,1, 2...
k =0 k!
Cu ajutorul funcţiei caracteristice se demonstrează că suma a două variabile Poisson
este tot o variabilă Poisson. Dacă X şi Y au parametrii şi atunci :
it it it
ϕ( t; λ )ϕ( t; μ) = e λ ( e −1)
⋅ e μ(e −1)
= e ( λ + μ )( e −1)
= ϕ( t; λ + μ) ,
adică variabila aleatoare Poisson (X+Y) are o repartiţie Poisson cu parametrul ( + ).
Valoarea medie şi dispersia :
∞
λk − λ ∞
λk −1 (6.27)
M (X) = ∑ k e = λe − λ ∑ =λe − λ e λ = λ
k =0 k! k =1 ( k − 1 )!
λk − λ ∞ 2
∞
λk − λ ∞ λk − λ
M 2 (X) = ∑ k e = ∑ (k − k + k ) e = ∑ k (k − 1) e +
2
k =0 k! k =0 k! k =1 k! (6.28)
∞
λ −λ
k
+ ∑k e = λ2 e − λ e λ + λ = λ2 + λ
k =0 k!
D( X ) = M 2 − M 2 = λ (6.29)
Se obţine :
1 q +1 (6.31)
M(X) = , M2 =
p p2
q +1 1 q (6.32)
D(X) = M 2 (X) − [M (X)] 2 = 2
− 2 = 2
p p p
Eroare! Legătură incorectă. 77
se numeşte funcţie de repartiţie uniformă pe [a,b], iar variabila aleatoare continuă care are
această funcţie de repartiţie se numeşte uniformă pe [a,b].
Într-adevăr avem :
x a x x
F(X ) = ∫ f (t )dt = ∫ f (t )dt + ∫ f (t )dt = ∫ f (t )dt,
−∞ −∞ a a
⎧0 , x≤a
⎪x − a
F( x ) = ⎨ , x ∈ (a , b ] (7.3)
⎪b − a
⎩1 , x>b
Graficele lui f(x) şi F(X) ale repartiţiei uniforme sunt prezentate în figurile 7.1 şi 7.2.
f(x) F(x)
1
1
b−a
0 a b x 0 a b x
a 2 + ab + b 2 a 2 + 2ab + b 2 (b − a ) (7.6)
2
D( X ) = − =
3 4 12
Deoarece b a , rezultă :
b−a (7.7)
σ = D( X ) =
2 3
Eroare! Legătură incorectă. 79
Este cea mai importantă dintre repartiţiile continue. Variabila aleatoare continuă X
urmează o repartiţie normală de parametrii m şi 2 (şi se notează N(m;2)) dacă densitatea
sa de repartiţie este :
( x − m )2 (7.8)
1 −
f ( x ; m, σ) = e 2σ 2
, x ∈ R , σ = D( X ) > 0
σ 2π
t−m
Pentru calculul integralei facem schimbarea de variabilă : = u şi rezultă
σ
dt=du, respectiv :
x −m
u2 0 u2
x −m
u2
(7.11)
σ σ
1 − 1 − 1 −
F( x ) =
2π
∫
−∞
e 2
du =
2π
∫
−∞
e 2
du +
2π
∫
0
e 2
du
1
prima integrală din relaţia (7.11) va fi 2π iar a doua integrală este funcţia integrală a
2
lui Laplace care se găseşte tabelată în cărţile de specialitate :
1
x
−
u2 (7.13)
Φ(x ) =
2π
∫
−∞
e 2
du ; Φ(− x ) = 1 − Φ( x )
Deci :
1 ⎛x − m⎞ (7.14)
F( x ) = + Φ⎜ ⎟
2 ⎝ σ ⎠
Valoarea medie şi dispersia repartiţiei N(m, 2) sunt tocmai cei doi parametrii, adică :
80 Eroare! Legătură incorectă.
obţinem :
∞ t2 ∞ t2 ∞ t2
1 − σ − m −
M (X) =
2π −∞
∫ (tσ + m ) ⋅e 2
dt =
2π
∫ t ⋅e
−∞
2
dt +
2π
∫
−∞
e 2
dt
Prima integrală este nulă (funcţia de integrat este impară) iar a doua este dată de
relaţia (7.12), deci : M(X)=m.
∞ ∞ ( x − m )2
1 −
D( X ) = ∫ ( x − m) f ( x )dx = ∫ ( x − m) ⋅e
2 2 2σ 2
dx
−∞ σ 2π −∞
t2
−
obţinem du=dt şi v = −e 2
, respectiv :
σ 2 ⎛⎜ 2 − 2 ⎞ σ2
2
t ∞ ∞ t2
−
D( X ) = t e + ∫ e 2
dt ⎟ = 2π = σ 2
2π ⎜⎝ −∞ −∞
⎟
⎠ 2π
primul termen tinde la zero iar al doilea este integrala lui Poisson.
Din aceste rezultate deducem că funcţia de repartiţie a unei variabile aleatoare este
perfect determinată de valoarea medie şi dispersia variabilei.
Reprezentarea grafică a densităţii este o curbă simetrică faţă de axa x=m (paralelă la
⎛ 1 ⎞
Oy) având punctul de maxim de coordonate ⎜⎜ m, ⎟⎟ , numită „curba normală” sau
⎝ σ 2π ⎠
„curba lui Gauss” (figura 7.3).
Punctele de abscisă (m-) şi respectiv (m+) sunt puncte de inflexiune ale curbei.
Astfel, curba este concavă dacă x ∈ (m − σ, m + σ ) şi convexă în afara intervalului.
Cu cât este mai mic, cu atât ordonata punctului de maxim este mai mare (m
rămânând constant) şi invers.
Eroare! Legătură incorectă. 81
f(x)
1
σ 2π
0
m- m m+ x
Fig.7.3
Schimbarea lui m, în ipoteza că rămâne constant, conduce la o translaţie a curbei
normale, forma ei rămânând neschimbată.
Momente centrate de ordin impar ale v.a. repartizate N(m, 2) sunt nule iar cele de
ordin par (2k) au valoarea :
μ 2 k (X) =
(2k )! σ 2k = 1 ⋅ 3 ⋅ 5 L (2k − 1)σ 2 k
k!2 k
Calculul momentelor centrate r se face pornind de la formula de definiţie pe care o
integrăm prin părţi :
∞ ( x −m)2
−
∫ (x − m) f (x )dx
r r-1
μr = ; u=(x-m) ; dv = ( x − m)e 2σ 2
−∞
( x −m)2
−
obţinem : du=(r-1)(x-m)r-2dx şi v = −σ 2 e 2σ2
etc.
Se obţine o formulă de recurenţă dacă r=2k (par) iar în caz contrar (deoarece
(x-m)2k+1f(x) este impară pe un interval simetric) integrala va fi nulă. Astfel :
μ 2 k = (2k − 1)σ 2 μ 2 k − 2 , k=1,2,… (7.16)
Dacă E 0, curba este mai ascuţită (mai bombată) decât cea normală iar dacă E 0,
curba este plată (mai puţin bombată).
Funcţia caracteristică se obţine din :
∞ ( x − m )2 (7.17)
1 −
ϕ( t ) = ∫e ⋅e
itx 2σ2
dx
σ 2π −∞
deci, în final :
itm −
t 2σ2 (7.18)
ϕ( t ) = e 2
⎛ n n
⎞
repartizată : N⎜ ∑ a k m k ; ∑ a 2k σ 2k ⎟ .
⎝ 1 1 ⎠
Deci: o variabilă aleatoare X are repartiţia N(0,1) dacă densitatea sa de repartiţie este :
1 −
x2 (7.19)
g( x ) = f ( x;0;1) = e 2
,x∈R
2π
f(x;0,1)
1
& (x)
- 0 x
Fig.7.4.
Din cauza simetriei graficului lui g(x) faţă de axa Oy este suficient să cunoaştem
valorile lui & (x) numai pentru x 0. Aceste valori se găsesc tabelate.
De asemenea : & (0)=0, & (' )=-1/2 şi & ( )=1/2 aşa încât pentru întreaga axă
reală (x R) avem :
& (-x)+& (x)=1,
adică aria mărginită de curba f(x;0,1) şi axa Ox, tinde către 1.
X−m
Variabila : = Z , aşa cum s-a mai amintit, se numeşte variabilă normală
σ
normată sau redusă şi se utilizează notaţia : N(z;0,1).
1 ⎛x − m⎞
Din : F( x ) = + Φ⎜ ⎟ , (relaţia 7.14) care înseamnă de fapt P(X x) se deduce :
2 ⎝ σ ⎠
⎛b −m⎞ ⎛a − m⎞ (7.21)
P (a < X < b) = Φ ⎜ ⎟ − Φ⎜ ⎟ ; a b date
⎝ σ ⎠ ⎝ σ ⎠
Observaţii : 1) Din (7.21), pentru orice # 0, obţinem :
⎛α⎞ ⎛ α⎞
P ( m − α < X < m + α ) = P( X − m < α ) = Φ ⎜ ⎟ − Φ⎜ − ⎟ .
⎝σ⎠ ⎝ σ⎠
⎛ α⎞ ⎛α⎞
Dar, Φ⎜ − ⎟ = 1 − Φ⎜ ⎟ şi rezultă :
⎝ σ⎠ ⎝σ⎠
⎛α⎞ (7.22)
P( X − m < α ) = 2Φ⎜ ⎟ − 1
⎝σ⎠
De aici rezultă următoarea regulă : dacă v.a. X are repartiţia N(m,2) atunci : X − m < 3σ , cu o
Acest rezultat permite să scriem pentru valori mai mari ale lui n :
t2
( )
b
1 −
P a npq < z − np < b npq ≅
2π
∫e
a
2
dt
X−λ
3). Abaterea redusă a v.a. X care are repartiţia Poisson cu parametrul este asimptotic
λ
normală N(0,1) pentru .
Funcţia caracteristică a abaterii reduse este :
⎛ it X − λ ⎞ ⎛ it X ⎞
Ψ ( t , λ) = M⎜ e λ ⎟ = e −it λ M⎜ e λ ⎟ = e −it λ ϕ⎛⎜ t , λ ⎞⎟ ,
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ ⎠ ⎝ ⎠ ⎝ λ ⎠
unde (t, ) este dată de relaţia (6.26). După efectuarea calculelor obţinem :
t2
−
lim Ψ ( t , λ ) = e 2
λ →∞
X + 0,5 − λ
b) Pentru repartiţia Poisson, dacă 18 se ia v.a. redusă : , asimptotic
λ
normală N(0,1).
(ln x − a )2 (7.23)
1 −
f (x) = e 2σ2
σx 2π
ln X − a
unde a=M(X) şi 2=D(lnX). Dacă notăm : Z = , rezultă X= ea+z , v.a. Z fiind
σ
repartizată N(0,1).
Valoarea medie a v.a. lognormale este :
∞ ∞ (ln x − a )2 σ2 (7.24)
1 − a+
M (X) = ∫ xf ( x )dx = ∫ dx = e
2
2σ
e 2
0 σ 2π 0
Importanţa acestei repartiţii constă în faptul că dacă x=0, f(x)=0, ceea ce convine în
cazul variabilei timp ; această proprietate nu este întâlnită la repartiţia normală. De
( )
n
asemenea, dacă Xk k = 1, n sunt v.a. lognormale independente, atunci ∏X
1
k este o v.a.
∞
de speţa a doua, a lui Euler : Γ(a ) = ∫ t a −1e − t dt ).
0
0 x 0 x 0 x
Fig.7.5.
F(x) F(x)
1 1
a 1 a>1
0 x 0 x
Fig.7.6.
Momentul de ordinul k :
∞ ∞ x
1 1 −
∫ x f (x )dx = ∫ x e b dx
a + k −1
M k = M(X k ) = k
⋅ a
−∞
Γ (a ) b 0
x
Facem schimbarea de variabilă = t ; dx=bdt şi obţinem :
b
Eroare! Legătură incorectă. 87
bk
Mk = ⋅ Γ (a + k )
Γ (a )
Dar :
Γ(a + k ) = a (a + 1) L (a + k − 1)Γ(a ) , deci
M k = a (a + 1) L (a + k − 1)b k (7.28)
⎛ 1⎞
Integrala se calculează prin substituţia : ⎜ it − ⎟ x = y şi se obţine :
⎝ b⎠
1 (7.32)
ϕ( t ) =
(1 − itb) a
88 Eroare! Legătură incorectă.
1
Fie v.a. X repartizată ! , cu funcţia de repartiţie F(x) şi v.a. Y = X (b – parametru
b
de scală al repartiţiei ! ), cu funcţia de repartiţie G(x). Avem :
⎛X ⎞
G ( x ) = P(Y < x ) = P⎜ < x ⎟ = P(X < bx ) = F(bx ) , adică :
⎝b ⎠
bx t
1 −
G(x) = ∫ a −1
t e dt , x ≥ 0
b
0 Γ (a ) b
a
V.a. X urmează repartiţia beta de parametrii a,b (a,b 0) dacă are densitatea de
repartiţie :
⎧ 1 (7.33)
⎪ x a −1 (1 − x ) b −1 , x ∈ [0,1]
f ( x; a , b) = ⎨ B(a , b)
⎪⎩ 0 , x < 0saux > 1
Γ (a ) ⋅ Γ ( b) (7.34)
B(a , b) =
Γ (a + b)
f(x;a,b)
1
a=b=
2
2
a=b=3
a=1; b=2 a=2; b=1
a=b=1
1
Eroare! Legătură incorectă. 89
Fig.7.7.
În figurile 7.8 se reprezintă graficele unor funcţii de repartiţie pentru diferite valori
ale parametrilor a şi b.
0 1 x 0 1 x 0 1 x
0 1 x 0 1 x 0 1 x
Fig.7.8.
Caracteristici numerice : prin calcul obţinem :
1 1
1 B(a + k , b)
M k (X) = ∫ x k f ( x )dx = ∫ x k + a −1 (1 − x ) b −1 dx = =
0
B(a , b) 0 B(a , b)
Γ (a + k )Γ (b) Γ (a + b) Γ(a + k )Γ(a + b)
= ⋅ = =
Γ ( a + b + k ) Γ ( a )Γ ( b ) Γ ( a + b + k ) Γ ( a )
(7.36)
Γ (a + b ) a (a + 1) L (a + k − 1) Γ (a )
= ⋅ ⋅
Γ (a ) (a + b)(a + b + 1) L (a + b + k − 1) Γ(a + b)
a (a + 1) L (a + k − 1)
Mk =
(a + b)(a + b + 1) L (a + b + k − 1)
Rezultă :
a (7.37)
M(X) = m =
a+b
a (a + 1) (7.38)
M 2 (X) =
(a + b)(a + b + 1)
ab (7.39)
D( X ) = M 2 − M 2 =
(a + b) (a + b + 1)
2
Valoarea modală se află calculând mai întâi punctele de maxim local ale densităţii de
repartiţie şi pentru a simplifica scrierea vom deriva B(a,b)f(x) :
B(a , b)f ' ( x ) = (a − 1) x a − 2 (1 − x ) b −1 − (b − 1)(1 − x ) b − 2 x a −1 =
= [(a − 1)(1 − x ) − (b − 1) x ]x a − 2 (1 − x ) b − 2
a −1
Rădăcinile sunt : x1=0 , x2=1 , x 3 = .
a+b−2
Observăm că : f(0)=0 şi f(1)=0 iar pentru x3 , în cazul a+b-2>0 avem maximul :
a −1 (7.40)
M 0 (X) =
a+b−2
7.6.1.Cazuri particulare :
1). Pentru a=b=1, obţinem densitatea de repartiţie uniformă pe (0,1) :
Eroare! Legătură incorectă. 91
1 , x ∈ (0,1) (7.41)
f 1 ( x ) = ⎧⎨
⎩0 , x ∉ (0,1)
2). Pentru a=2, b=1, obţinem densitatea de repartiţie triunghiulară :
2 x , x ∈ (0,1) (7.42)
f 2 ( x ) = ⎧⎨
⎩ 0 , x ∉ (0,1)
3). Pentru a=1, b=2, obţinem densitatea de repartiţie semitriunghiulară :
2(1 − x ) , x ∈ (0,1) (7.43)
f 3 ( x ) = ⎧⎨
⎩ 0 , x ∉ (0,1)
] [ [
0 1 x 0 1 x
f3(x) f4(x)
2
1,5
]
0 1 x 0 0,5 1 x
Fig.7.9
⎧ − λx (7.46)
F( x ) = ⎨1 − e , x > 0 ,
⎩ 0, x≤0
1 ⎛ drϕ ⎞ 1 2 (7.48)
M r (X) = ⎜ r ⎟⎟ ; M 1 (X) = ; M 2 (X) = 2
r ⎜
i ⎝ dt ⎠ t =0 λ λ
Dispersia deci, va fi :
1 (7.49)
D(X) = M 2 − M 12 =
λ2
Această repartiţie este un caz particular al repartiţiei gamma (a=1) în care notăm
1/b= ; (b>0). În fig. 7.10 se prezintă graficele lui f(x) şi F(x) :
f(x) F(x)
1
]
0 x 0 x
Fig. 7.10
f(x)
1,2
x0
Eroare! Legătură incorectă. 93
1 m=3
x0
m=2
1
m=
2
m=1
0 2 2 4 x
3
3 x0
Fig.7.11.
Funcţia de repartiţie este :
⎧ ⎛ x −u ⎞
m
(7.51)
⎪ − ⎜⎜ ⎟
⎟
F( x ) = ⎨1 − e ⎝ x 0 ⎠ ; x ≥ u, u ≥ 0
⎪⎩ 0; x<0
Observăm din figură şi din formula (7.50) că pentru u=0 şi m=1 repartiţia Weibull
coincide cu repartiţia exponenţială negativă, iar dacă m 3 ea tinde către o repartiţie
normală.
Momentele variabilei X, în cazul u=0 sunt date de :
m
∞ ⎛ x ⎞
− ⎜⎜ ⎟
m ⎟
∫x
r + m −1 ⎝ x0
M r (X) = ⋅e ⎠
dx (7.52)
x 0m 0
m
⎛ x ⎞
Dacă facem substituţia ⎜⎜ ⎟⎟ = y , deducem :
⎝ x0 ⎠
∞ r
⎛ r ⎞ (7.53)
M r (X) = x 0 ∫ y e − y dy = x 0 ⋅ Γ⎜ + 1⎟, m > 0
m
0 ⎝m ⎠
2 (7.56)
⎛2 ⎞ ⎡ ⎛1 ⎞⎤
D(X) = M 2 (X) − [M(X)]
2
= x 0 Γ⎜ + 1⎟ - x 02 ⎢Γ⎜ + 1⎟⎥
⎝m ⎠ ⎣ ⎝m ⎠⎦
f (x) =
(λk )k x k −1 e − λkx
(7.57)
Γ(k )
unde : >0, k 1, x [0, )
Pentru k=1 obţinem densitatea repartiţiei exponenţiale negative, iar dacă k=1,
repartiţia Erlang coincide cu repartiţia gamma de parametru 1/ .
Momentul de ordinul r :
(λk )k ∞ (7.58)
∫ x e dx
r + k −1 − λkx
M r (X) =
Γ(k ) 0
1
∞
Γ( k + r ) (7.59)
∫ x e dy =
r + k −1 − y
M r (X) =
(λk )r Γ(k ) 0 (λk )r Γ(k )
respectiv :
1 (7.61)
D( X ) =
kλ2
2
7.10. Repartiţia (hi – pătrat)
2
Variabila aleatoare X urmează o repartiţie cu n grade de libertate şi parametru
0, dacă densitatea sa de repartiţie este :
⎧ 1
n
−1
x
− 2
⎪ n x ⋅e
2 2σ
, x≥0 , n∈N
⎪ ⎛ n ⎞ (7.62)
f ( x ) = ⎨ 2 2 σ Γ⎜ ⎟
n
⎪ ⎝2⎠
⎪⎩ 0 , x<0
Eroare! Legătură incorectă. 95
n
şi astfel : lim f ( x ) = c lim x 2 ⋅ e 2σ2
= 0 , adică y=0 este asimptotă orizon-
⎛n⎞ x →∞ x →∞
2 σ n Γ⎜ ⎟
2
⎝2⎠
n x
⎛n 1 ⎞ −2 −
tală la (+ ). Curba trece prin origine. Pentru n 1, f ' ( x ) = c ⋅ x 2 e
⎜ −1− x⎟ , 2σ 2
⎝2 2σ 2 ⎠
cu rădăcina x0=(n-2) 2
0, care reprezintă M0(X)- punct de maxim local (fs’(x0) 0 ,
fd’(x0) 0).
f(x)
f(M0)
0 M0 x
Fig.7.12
1
∞ n
−1 −
1− 2 itσ 2 (7.63)
ϕ( t ) = n
⎛n⎞
∫x 2
e 2σ2
dx
2 2 σ n Γ⎜ ⎟ 0
⎝2⎠
După efectuarea calculelor obţinem :
(7.64)
( )
n
−
ϕ( t ) = 1 − 2itσ 2 2
1 ⎛ dϕ ⎞
M 1 ( X ) = ⎜ ⎟ = nσ 2 (7.65)
i ⎝ dt ⎠ t = 0
⎛ d 2ϕ ⎞ 1
⎜⎜ 2 ⎟⎟ = n (n + 2)σ 4
M 2 (X) = (7.66)
⎝ dt ⎠ t = 0 i2
LLLLLLLLLLLLLLL
1 ⎛ drϕ ⎞ (7.67)
M r (X) = ⎜⎜ r ⎟⎟ = n (n + 2) L (n + 2r − 2)σ 2 r
ir ⎝ dt ⎠ t = 0
Dispersia este :
D(X) = M 2 (X) − [M 1 (X)] 2 = 2nσ 4 (7.68)
Utilizând funcţia caracteristică se poate arăta că dacă v.a. X are repartiţia 2 (n, 2)
X − nσ 2
atunci variabila , este asimptotic normală pentru n → ∞ .
σ 2 2n
De asemenea, se arată că dacă v.a. independente X1 şi X2 sunt repartizate 2 cu n1
respectiv n2 grade de libertate şi parametru , atunci variabila (X1 + X2) este repartizată
2 cu (n1+ n2) grade de libertate şi parametru :
n1 + n 2
(7.69)
ϕ X1 + X 2 ( t ) = ϕ X1 ( t ) ⋅ ϕ X 2 ( t ) = (1 − 2itσ 2 )
−
2
Teoremă : Dacă Xk(k=1,n) sunt v.a. independente, fiecare repartizate N(0, ), atunci
v.a. Y = ∑ X 2k este repartizată 2 (n, 2).
( )
x
1 −
F( x ) = P(X < x ) = P − x < X k < x = ∫e
2 2σ2
k du
σ 2π − x
De aici,
x
1 −
f ( x ) = F' ( x ) = e 2σ 2
σ 2πx
( )= σ
∞ 1 1− 2 itσ 2 1
1 − − −
∫x e
itX 2k
şi ϕ X 2 ( t ) = M e 2 2σ2
dx = (1 − 2itσ 2 ) 2
k
2π 0
⎧ 1 − x2
⎪ 2σ
, x ≥ 0,
f ( x ) = ⎨ 2σ 2 e
⎪⎩ 0, x<0
x2 n
Facem schimbarea de variabilă = y > 0, dx = dy şi ţinem seama de funcţia
n 2 y
⎛1⎞ ⎛n⎞
Γ⎜ ⎟ ⋅ Γ⎜ ⎟
⎛1 n⎞ ⎝2⎠ ⎝ 2⎠
I = n ⋅ Β⎜ , ⎟ = n
⎝2 2⎠ ⎛ n + 1⎞
Γ⎜ ⎟
⎝ 2 ⎠
⎛1⎞
Deoarece Γ⎜ ⎟ = π , ţinând seama de (7.72), deducem :
⎝2⎠
∞
∫ f (x)dx = 1 ,
−∞
f(x)
n=5
n=1
0 x
Fig.7.13.
Se poate arăta că dacă v.a. X este repartizată „t” cu n grade de libertate, atunci X este
asimptotic normală N(0,1) pentru n . Practic pentru n 30 , repartiţia „t” poate fi
aproximată cu N(0,1).
Funcţia de repartiţie este dată de relaţia :
⎛ n + 1⎞
Γ⎜ ⎟ n +1
2 − 2
x x
⎝ 2 ⎠ ⎜ ⎛ t ⎞ (7.73)
F( x ) = ∫ f ( t )dt = ∫ ⋅ ⎜1 + ⎟⎟ dt = 0 ,
⎛n⎞ n⎠
−∞ −∞
πn ⋅ Γ⎜ ⎟ ⎝
⎝2⎠
care nu se poate aduce la o formă mai simplă. De aceea F(x) este tabelată pentru diferite
valori ale lui x şi n. Deoarece f(x) este pară, avem F(-x)=1-F(x) şi este suficient să
cunoaştem valorile lui F pentru x 0.
Eroare! Legătură incorectă. 99
Din acelaşi motiv (f(x)-pară), M(x)=0 iar momentele obişnuite coincid cu momentele
centrate :
⎛ n + 1⎞
Γ⎜ ⎟ ∞ n +1
2 − 2
⎝ 2 ⎠ ⎛ x ⎞ (7.74)
⎛ n ⎞ −∫∞
μ 2 r +1 (X) = ⋅ x 2 r +1 ⎜⎜1 + ⎟ dx = 0
⎝ n ⎟⎠
πn ⋅ Γ⎜ ⎟
⎝2⎠
⎛ n + 1⎞
Γ⎜ ⎟ ∞ n +1
2 − 2
⎝ 2 ⎠ ⎛ x ⎞ (7.75)
μ 21 (X) = ⋅ ∫ x 2 r ⎜⎜1 + ⎟ dx = 0
⎛ n ⎞ −∞ ⎝ n ⎟⎠
πn ⋅ Γ⎜ ⎟
⎝2⎠
x2
Prin schimbarea de variabilă = u , deducem :
n
⎛ 1⎞ ⎛n ⎞
r
Γ⎜ r + ⎟ ⋅ Γ⎜ − r ⎟
n ⎝ 2⎠ ⎝ 2 ⎠ n (7.76)
μ 2r = ⋅ ; r<
π ⎛n⎞ 2
Γ⎜ ⎟
⎝2⎠
Având în vedere relaţiile de recurenţă :
⎛ 1⎞ ⎛ 1 ⎞⎛ 3⎞ 1 ⎛1⎞ ⎛ 1 ⎞⎛ 3⎞ 1
Γ⎜ r + ⎟ = ⎜ r − ⎟⎜ r − ⎟ L Γ⎜ ⎟ = ⎜ r − ⎟⎜ r − ⎟L π
⎝ 2⎠ ⎝ 2 ⎠⎝ 2⎠ 2 ⎝ 2⎠ ⎝ 2 ⎠⎝ 2⎠ 2
⎛n⎞ ⎛n ⎞⎛ n ⎞ ⎛n ⎞ ⎛n ⎞
Γ⎜ ⎟ = ⎜ − 1⎟⎜ − 2 ⎟ L ⎜ − r ⎟ ⋅ Γ⎜ − r ⎟,
⎝ 2 ⎠ ⎝ 2 ⎠⎝ 2 ⎠ ⎝2 ⎠ ⎝2 ⎠
obţinem :
1 ⋅ 3 ⋅ 5 L (2r − 1) n (7.77)
μ 2 r (X) = n r ; r<
(n − 2)(n − 4) L (n − 2r ) 2
De aici, deducem dispersia :
n (7.78)
D( X ) = μ 2 ( X ) =
n−2
Următoarele teoreme (fără demonstraţie) ne arată diferite modalităţi de a ajunge la
repartiţia „t”.
T1 : Dacă X şi Y sunt v.a. independente iar X este repartizată N(0,) şi Y repartizată
X
2(n,2) atunci v.a. : z = , este repartizată „t” cu n grade de libertate.
Y
n
1 n
∑ Xk
n k =1
Z = n (n − 1) ⋅
2
n
⎛ 1 n ⎞
∑ ⎜Xi − ∑ Xk ⎟
i =1 ⎝ n k =1 ⎠
este repartizată „t” cu (n-1) grade de libertate.
Variabila aleatoare X urmează această repartiţie cu m,n grade de libertate, dacă are
densitatea de repartiţie :
⎛m+n⎞
m Γ⎜ ⎟ m −
m+n
⎛m⎞ 2 ⎝ 2 ⎠ −1 ⎛ m ⎞ 2
(7.79)
f (x) = ⎜ ⎟ ⋅ x 2 ⎜1 + x ⎟
⎝n⎠ ⎛m⎞ ⎛n⎞ ⎝ n ⎠
Γ⎜ ⎟ ⋅ Γ ⎜ ⎟
⎝ 2 ⎠ ⎝2⎠
unde : x ☯ 0, ) şi m, n N*.
Obţinem :
⎛ m⎞ ⎛n ⎞
Γ⎜ r + ⎟ ⋅ Γ⎜ − r ⎟
r
⎛m⎞ ⎝ 2 ⎠ ⎝2 ⎠ n (7.81)
M r (X) = ⎜ ⎟ , r<
⎝n⎠ ⎛m⎞ ⎛n⎞ 2
Γ ⎜ ⎟ ⋅ Γ⎜ ⎟
⎝ 2 ⎠ ⎝2⎠
Dar :
⎛ m⎞ ⎛m ⎞⎛ m ⎞ m ⎛m⎞
Γ⎜ r + ⎟ = ⎜ + r − 1⎟⎜ + r − 2 ⎟ L Γ⎜ ⎟
⎝ 2⎠ ⎝2 ⎠⎝ 2 ⎠ 2 ⎝2⎠
⎛n⎞ ⎛n ⎞⎛ n ⎞ ⎛n ⎞ ⎛n ⎞
Γ⎜ ⎟ = ⎜ − 1⎟⎜ − 2 ⎟ L ⎜ − r ⎟Γ⎜ − r ⎟
⎝ 2 ⎠ ⎝ 2 ⎠⎝ 2 ⎠ ⎝2 ⎠ ⎝2 ⎠
Deci :
Eroare! Legătură incorectă. 101
r
⎛ n ⎞ m ( m + 2) L ( m + 2 r − 2) (7.82)
M r (X) = ⎜ ⎟ ⋅
⎝ m ⎠ (n − 2)(n − 4) L (n − 2r )
În particular :
n (7.83)
M 1 (X) = , n>2
n−2
n2 m+2 (7.84)
M 2 (X) = ⋅ , n>4
m (n − 2)(n − 4)
2n 2 m+n+2 (7.85)
D( X ) = ⋅ , n>4
m (n − 2) 2 (n − 4)
Observăm că valoarea medie este independentă de m.
Enunţăm în cele ce urmează două teoreme care ne oferă căi de a ajunge la repartiţia
Snedecor :
T1 : Dacă v.a. independente X1 şi X2 sunt repartizate 2(m,2), respectiv 2(n,2),
m X1
atunci v.a. : Y = ⋅ , este repartizată Snedecor cu m,n grade de libertate.
n X2
T2 : Dacă v.a X este repartizată „t” cu n grade de libertate, atunci v.a. X2 este
repartizată Snedecor cu 1,n grade de libertate.
V.a. X urmează repartiţia Fischer cu m,n grade de libertate dacă are densitatea de
repartiţie :
⎛m+n⎞
m Γ⎜ ⎟ −
m+n
⎛m⎞ 2 ⎝ 2 ⎠ ⎛ m ⎞ 2
(7.86)
f ( x ) = 2⎜ ⎟ ⋅ e mx ⎜1 + e 2 x ⎟
⎝n⎠ ⎛m⎞ ⎛n⎞ ⎝ n ⎠
Γ⎜ ⎟ ⋅ Γ⎜ ⎟
⎝ 2 ⎠ ⎝2⎠
unde : x R ; m,n N*.
Dacă Y este o v.a. având repartiţia Snedecor cu m,n grade de libertate, atunci v.a.:
1
X= ln Y , este repartizată Fischer cu m, n grade de libertate. (Demonstraţia se poate
2
face plecând de la funcţia de repartiţie a v.a. X).
102 Eroare! Legătură incorectă.
−1
⎛ m ⎞ ⎛n m⎞
Deasemenea, se poate arăta că v.a. : ⎜1 + Y ⎟ , are repartiţia B⎜ , ⎟ , iar v.a :
⎝ n ⎠ ⎝2 2 ⎠
⎛m n⎞
mY(n+mY)-1, are repartiţia B⎜ , ⎟ .
⎝ 2 2⎠
ϕ( t ) = e
itb + a t (7.88)
Dacă v.a. X are repartiţia C(a,b), atunci v.a. : (λX + μ) are repartiţia C( λ a , λb + μ) .
Într-adevăr,
( ) ( )
ϕ λX + μ ( t ) = M e it ( λX + μ ) = e itμ ⋅ M e itλX = e itμ ⋅ ϕ x ( tλ) = e
it (μ + λb )− aλ t
, care demonstrează
afirmaţia anterioară.
n
Dacă v.a. independente Xk , k=1,n, au repartiţiile C(ak,bk), atunci v.a. : ∑X
1
k , are
⎛ n n
⎞
repartiţia C⎜ ∑ a k , ∑ b k ⎟ .
⎝ 1 1 ⎠
Avem :
t 2 a 12 σ12 t 2 a 22 σ 22
ϕ( t ) = M e ( ) = M(e
itY it ( a 1X1 + a 2 X 2 )
) = M(e ita 1X1
e ita 2 X 2
) = ϕ (a t )ϕ
1 1 2 (a 2 t ) = e
m1a 1it −
2
⋅e
m 2 a 2 it −
2
=
( m1a1 + m 2 a 2 )it −
t 2
(
a 12 σ12 + a 22 σ 22 ) mit −
2
t σ 2
=e =e 2 2
(
rezultă : Y ~ N a 1 m 1 + a 2 m 2 , a 12 σ12 + a 22 σ 22 . )
3) Fie X o v.a. pozitivă ce urmează o repartiţie lognormală, adică : lnX~N(m,).
n
Să se afle repartiţia variabilei Y = ∏ X k , unde Xk~logN(mk,k), k = 1, n şi sunt
1
Soluţie : Dacă notăm evenimentele (X x+y)=A, (X x)=B, membrul stâng al
egalităţii devine :
⎛ −
x+y
⎞
1 − ⎜1 − e b ⎟⎟
⎜ −
x
−
y
y
P(B ∩ A) P(A) 1 − P(A) 1 − F( x + y) ⎝ ⎠ e ⋅eb b −
PB (A) = = = = = = = e b
P(B) P(B) 1 − P(B) 1 − F( x ) ⎛ − ⎞
x
−
x
1 − ⎜⎜1 − e b ⎟⎟ e b
⎝ ⎠
unde : A = (X ≤ x + y) şi B = (X ≤ x ) .
⎛ − ⎞
y
−
y
C = ( X ≤ y) .
Relaţia demonstrată reprezintă „proprietatea lipsei de memorie” pentru repartiţia
exponenţială negativă, deci aceasta este repartiţia continuă ce corespunde repartiţiei
geometrice discrete şi similar cazului discret este singura repartiţie continuă cu această
proprietate.
Eroare! Legătură incorectă. 105
Teoremă : Fie X o v.a. cu media M(X)=m şi dispersia D(X)=2. Pentru orice * >0
are loc inegalitatea (Cebîşev) :
D( X ) D( X ) (8.1)
P( X − m < ε ) ≥ 1 − sau P( X − m ≥ ε ) ≤ 2
ε 2
ε
Demonstraţie :
Variabila X poate fi discretă sau continuă. Să presupunem că este discretă, luând
valorile xi cu probabilităţile pi, i = 1, n .
Avem :
n
P( X − m ≥ ε ) = P((X − m ≤ −ε) ∪ (X − m ≥ ε) ) = P((X ≤ m − ε) ∪ (X ≥ m + ε) ) = ∑p i
1
x i − m ≥ε
Apoi,
( )
n
D( X ) = M ( X − m) 2 = ∑ (x i − m ) p i ≥ ∑x ∑p ≥ε 2 P( X − m ≥ ε )
2 2
i − m pi ≥ ε2 i
1 x i − m ≥ε x i − m ≥ε
De aici :
D( X ) D( X )
P( X − m ≥ ε ) ≤ sau P( X − m < ε ) ≥ 1 − 2
ε 2
ε
Exemplu :
Să se determine o margine superioară (inferioară) a probabilităţii evenimentului ca o
variabilă X să se abată de la media sa, m, cu cel puţin (cel mult) 3, unde 2=D(X).
Avem :
D( X ) 1
P( X − m ≥ 3σ ) ≤ = ≅ 0,1111 (marginea superioară)
9σ 2 9
D( X ) 8
P( X − m < 3σ ) ≥ 1 − = ≅ 0,8888 (marginea inferioară)
9σ 2 9
106 Eroare! Legătură incorectă.
(Xn) converge în probabilitate către o v.a. X, dacă pentru orice numere * >0 şi + >0,
suficient de mici, există un rang natural N(* ,+ ) astfel încât :
P( X n − X ≥ δ ) ≤ ε sau lim P( X n − X ≥ δ) = 0 (8.2)
n →∞
Se notează : X n ⎯⎯→
P
X
Şirul (Xn) converge aproape sigur (sau converge tare) către X dacă :
{ }
P⎛⎜ ω ∈ E lim X n (ω) ≠ X(ω) ⎞⎟ = 0
⎝ n →∞ ⎠
(8.4)
Se notează : X n ⎯⎯→
T
X sau X n ⎯⎯→
a .s.
X.
Definiţia ne spune că mulţimea punctelor de divergenţă are probabilitatea nulă.
Reţinem că limita X nu este unică, dar oricare două limite sunt aproape sigur egale.
Eroare! Legătură incorectă. 107
Xn ⎯
⎯→
T
X implică X n ⎯⎯→
P
X , fapt ce rezultă imediat şi dintr-o altă definiţie :
X n ⎯⎯→
T
X dacă (∀)ε > 0, δ > 0, (∃) N(ε, δ) astfel încât :
⎛ ⎞ (8.5)
P⎜⎜ U ( X n − X ≥ δ )⎟⎟ < ε
⎝ n ≥ N ( ε ,δ ) ⎠
Sau
⎛ ⎞ (8.6)
P⎜⎜ I ( X n − X < δ )⎟⎟ ≥ 1 − ε
⎝ n ≥ N ( ε ,δ ) ⎠
(
lim M X n − X
n →∞
r
)= 0 (8.7)
μr
Se scrie : X n ⎯⎯→ X.
Cea mai utilizată este convergenţa în medie pătratică (r=2).
Convergenţa în medie de ordinul r implică convergenţa în probabilitate.
Observaţii :
a) X n ⎯⎯→
rep
X în sens Bernoulli
b) În general limita F(x0) nu este unică
c) O teoremă datorată lui Polya stabileşte că dacă F este continuă atunci convergenţa este uniformă.
d) Pentru variabile discrete, convergenţa în repartiţie către o variabilă discretă se exprimă prin
P(Xn=x) P(X=x). Un şir de v.a. discrete poate totuşi să conveargă în repartiţie către o variabilă
continuă.
108 Eroare! Legătură incorectă.
e) Se poate arăta că dacă (Xn) este un şir de variabile de densităţi fn şi X o variabilă de densitate f,
atunci :
X n ⎯⎯→
rep
X implică : fn(x) f(x)
f) Convergenţa în probabilitate antrenează convergenţa în repartiţie.
g) Convergenţa în repartiţie este strâns legată de convergenţa funcţiilor caracteristice, aşa cum
n ⎯⎯→ X ⎭
T
1) Dacă există constanta p a.î. lim f n = p , spunem că şirul (fn) tinde în mod sigur
n →∞
Demonstraţie :
Se porneşte de la inegalitatea lui Cebîşev şi se ţine seama că pentru evenimentul A
(cazul lui Bernoulli) avem 2=npq :
⎛α ⎞ σ2 npq pq
P( f n − p < ε ) = P⎜⎜ − p < ε ⎟⎟ = P( α − np < nε ) ≥ 1 − 2 2 = 1 − 2 2 = 1 − 2
⎝n ⎠ n ε n ε nε
pq
Dar, 1 − ≤ P( f n − p < ε ) ≤ 1 , ne arată că are loc relaţia (8.10).
nε 2
Teorema lui Poisson, reprezintă o generalizare a teoremei lui Bernoulli :
Demonstraţie :
110 Eroare! Legătură incorectă.
Teorema lui Cantelli (fără demonstraţie), arată că există şi convergenţă tare a şirului
(fn) către p. Astfel, fie şirul (An) de evenimente independente cu probabilităţile p1, p2, …,
p1 + L + p n
pn, … Presupunem că p = lim . În aceste condiţii, avem :
n →∞ n
lim P( f n − p < ε ) = 1, lim P( f n +1 − p < ε ) = 1,K
n →∞ n →∞
Un exemplu de convergenţă tare, datorat lui Octav Onicescu şi Gh. Mihoc este
următorul :
Fie o urnă cu m bile albe şi m bile negre. Se fac extracţii, înlocuind de fiecare dată
bila extrasă printr-o bilă de cealaltă culoare.
Eroare! Legătură incorectă. 111
rezultă :
1
lim f n = .
n →∞ 2
Observaţie :
În legătură cu teoremele prezentate se impun următoarele precizări :
a) Teorema lui Bernoulli nu demonstrează că inegalitatea fn-p <* este satisfăcută pentru n
suficient de mare, ci numai că această inegalitate are şansă să fie realizată experimental. Această
şansă există deoarece P( fn-p <* ) este foarte apropiată de 1.
b) Legea numerelor mari nu este o proprietate a fiecărui şir de variabile aleatoare (nu constituie o
proprietate caracteristică oricăror şiruri de v.a.). Markov a dat un exemplu clasic în care această
lege nu mai acţionează.
Exemplu (Markov) :
112 Eroare! Legătură incorectă.
Se dă o urnă cu două bile, una albă şi una neagră. După fiecare extracţie o bilă extrasă este înlocuită
prin două bile de aceeaşi culoare. După n extracţii, putem extrage 0, 1, 2, …, n bile albe cu probabilităţile
Pn(0), Pn(1), …, Pn(n).
Avem :
k n−k
Pn (k ) = Pn −1 (k − 1) + Pn −1 (k − 1)
n +1 n +1
1 1
Dacă presupunem Pn −1 (k − 1) = , rezultă : Pn ( k ) = (∀)k = 0, n , de unde pentru frecvenţa
n n +1
avem tabloul :
⎛ 0 1 L n ⎞
⎜ 1 1 1 ⎟
⎜ L ⎟
⎝ n +1 n +1 n + 1⎠
Frecvenţele având aceeaşi probabilitate, nu poate fi vorba de nici o convergenţă.
În acest caz nu putem face o previziune asupra frecvenţelor relative după un număr mare de experienţe
şi deci este inutil să facem o statistică a modurilor experimentale de realizare a acestei experienţe.
b) M (X k ) = m, (∀)k = 1, n
Demonstraţie :
1 n
Notăm cu X = ∑ X k şi avem :
n 1
1 n 1 n 1
M (X) = ∑ M (X k ) = ∑ m = m ⋅ n = m
n 1 n 1 n
n
1 nc c
D( X ) =
n2
∑ D( X
1
k )≤ =
n2 n
Aplicăm inegalitatea lui Cebîşev :
D( X )
P( X − M (X) < ε ) ≥ 1 − , adică :
ε2
Eroare! Legătură incorectă. 113
⎛1 n ⎞ c
P⎜⎜ ∑ X k − m < ε ⎟⎟ ≥ 1 − 2 , de unde :
⎝n 1 ⎠ nε
⎛1 n ⎞
lim P⎜⎜ ∑ X k − m < ε ⎟⎟ = 1
n →∞
⎝n 1 ⎠
Observaţie :
Teorema lui Cebîşev generalizează teorema lui Bernoulli şi scoate în evidenţă esenţa numerelor mari
care constă în faptul că dacă mărimile ataşate unei colectivităţi de volum mare conţin erori, acestea devin
neglijabile atunci când numărul lor este mare. Ne aflăm în situaţia practică de a considera o singură
variabilă şi anume media aritmetică a acestor erori.
Teorema lui Markov (fără demonstraţie) : Fie (Xn) un şir de v.a. independente două
câte două. Dacă :
a) M(Xk)=Mk şi D(Xk)=Dk, k N sunt finite,
n
1
b) (∃) nlim ∑Mk = M , finită şi
→∞ n 1
n
1
c) lim
n →∞ n
∑D 1
2
k =0,
1 n
atunci şirul (Yn) cu termenul general Yn = ∑ X k converge în probabilitate către M :
n 1
Yn ⎯⎯→
P
M.
1 ( x − m )2 (8.14)
n−x 1 − ⋅
lim C p q x
n
x
= e 2 σ2
= f ( x ; m, σ 2 ) ,
n →∞
σ 2π
unde f este densitatea repartiţiei normale N(m,2).
X − m X − np X np
Z= = = − ,
σ npq npq npq
atunci :
n n
⎛ t ⎞ −
itnp
⎛ it
⎞ ⎛ − tp
⎞
ϕ Z (t) = ϕ X ⎜ ⎟e npq
= ⎜ pe npq
+ q⎟ ⎜e npq ⎟ =
⎜ npq ⎟ ⎜ ⎟ ⎜ ⎟
⎝ ⎠ ⎝ ⎠ ⎝ ⎠
n n (8.15)
⎛ (1− p ) it −
itp
⎞ ⎛ i iqt
−i
tp
⎞
= ⎜ pe npq + qe npq ⎟ = ⎜ pe npq
+ qe npq ⎟
⎜ ⎟ ⎜ ⎟
⎝ ⎠ ⎝ ⎠
Ţinând seama că :
x x2
e ix = 1 + i − + R 2 cu lim R 2 = 0
1! 2! x →0
x x2
e −ix = 1 − i − + R ′2 cu lim R ′2 = 0
1! 2! x →0
Deci :
⎛ t2 ⎞
n ⎜ θ− ⎟
⎡ ⎤ 1 ⎜ 2n ⎟
⎝ ⎠ t2
⎢ ⎛ t 2 ⎞ θ− t 2 ⎥ −
lim ϕ Z ( t ) = lim ⎜⎜1 + θ − ⎟ 2n =e 2
,
n →∞ n →∞ ⎢
⎝ 2n ⎟⎠ ⎥
⎢⎣ ⎦⎥
care este tocmai funcţia caracteristică a distribuţiei N(x;0,1).
Revenind la variabila X=Z+m, obţinem :
σ2t 2 σ2 t 2
1 − 1 itm −
ϕ X ( t ) = ϕ σZ+ m ( t ) = ϕ Z (σt )e itm
= e 2
⋅e itm
= e 2
2π 2π
care este funcţia caracteristică a distribuţiei normale.
Observaţie :
Distribuţia binomială se consideră bine aproximată de distribuţia normală dacă 2=npq>20 deşi în
practică se ia doar npq 3, ceea ce corespunde unor valori pentru n>80 respectiv în practică n 12.
Exemplu : Probabilitatea ca într-o unitate economică consumul de energie electrică să
fie depăşit într-o zi este p=0,3 (deci q=0,7). Să se calculeze probabilitatea ca din cele 10
zile ale unei decade fixate, consumul să fie depăşit în 4 zile.
Soluţie :
Eroare! Legătură incorectă. 115
X : ⎛⎜ k
k ⎞ ; m = 3, σ 2 = 2,1
10 − k ⎟
C
⎝ 10 (0,3) k
(0,7 ) ⎠ k = 0,10
Folosind teorema Moivre-Laplace, avem :
( 4−m)2 ( 4 − 3) 2
1 − 1 − N(z;0,1) N(0,7;0,1) 0,312
P ( k = 4) = = = = ≅ ≅ 0,2153
2 4, 2
2σ
e e
σ 2π σ 2π σ 1,449 1,449
k−m 1
şi z = = ≅ 0,7 .
σ 1,449
cu : 0,2153-0,2001=0,0152.
Dacă s-ar considera 3 decade (o lună de zile) s-ar obţine o abatere egală cu 0,0007.
Atunci :
1
x
−
u2 (10.9)
lim F ( x ) = ∫e du , (∀) x ∈ R
* 2
n
n →∞
2π −∞
Convergenţa către repartiţia Poisson. Fie Xn1, Xn2, …, Xnk, … un şir de v.a.
independente care iau valori întregi nenegative. Să notăm :
P(Xnk=h)=pnk(h); k=1, 2, …, kn ; n N, h N*
∞ kn
∑ p nk (h ) = H nk ; Yn = ∑ X nk
h =2 k =1
kn
a) lim ∑ p nk (1) = 0
n →∞
k =1
⎧ 0 , x ≤ −n
⎪⎪ 1 x x+n
Fn ( x ) = ⎨ ∫ dt =
2n
, x ∈ (−n, n ]
⎪ 2n − n
⎪⎩ 1 , x>n
1 1
Atunci lim Fn ( x ) = , (∀)x ∈ R , dar F( x ) = , (∀)x ∈ R nu este o funcţie de
n →∞ 2 2
repartiţie.
⎛ 0 n⎞
2) Fie şirul de v.a. (Xn)n 1 unde : X n : ⎜ 1 1 ⎟ şi variabila X=0 (aproape sigur).
⎜1 − ⎟
⎝ n n⎠
Să se arate că şirul (Xn) converge în repartiţie la X şi să se studieze convergenţa
şirului momentelor (Mk(Xn))k 1.
Soluţie :
Fie Fn funcţia de repartiţie a lui Xn. Ea are forma :
Eroare! Legătură incorectă. 117
⎧ 0 , x≤0
⎪ 1
Fn ( x ) = ⎨1 − , x ∈ (0, n ]
⎪ n
⎩ 1 , x>n
0 , x≤0
Deci : F( x ) = lim Fn ( x ) = ⎧⎨ , este tocmai funcţia de repartiţie a v.a. X=0
n →∞ ⎩ , x>0
1
b
120 Eroare! Legătură incorectă.
( )
Ft1Kt n (x 1 , K , x n ) = P ξ t1 < x 1 , K , ξ t n < x n , (∀)n ∈ N, t i ∈ T, x i ∈ R (9.1)
( )
P ξ t (e) ∈ A ξ t i , i = 1,2, K.n , (9.2)
( )
P ξ t (e) ∈ A ξ t i , i = 1,2, K.n = P(ξ t (e) ∈ A ) , (9.3)
aproape sigur pentru orice n N, orice t1<…<tn<t şi orice A B, obţinerea unui caz
particular foarte important de proces aleator, când probabilităţile condiţionate se reduc la
cele absolute, adică cunoaşterea trecutului procesului nu influenţează cu nimic viitorul
său.
122 Eroare! Legătură incorectă.
Definiţia 2 : Un proces Markov este un proces aleator care verifică proprietatea lui
Markov : ( )n N şi ( )t1<t2<…<tn<t, avem :
( ) ( )
P ξ t (e) ∈ A ξ t i , i = 1,2, K.n = P ξ t (e) ∈ A ξ t n , aproape sigur (9.4)
La baza noţiunii de proces Markov stă deci imaginea pe care o avem despre un sistem
dinamic fără postacţiune, adică un sistem a cărei evoluţie în viitor (la momentul t) nu
depinde decât de starea sa precedentă (la momentul tn) fără a depinde de ceea ce s-a
petrecut cu el în trecut (momentele t1, t2, …, tn-1).
De exemplu, în mecanică, cunoaşterea poziţiei unei particule nu este suficientă pentru
a determina comportarea sa viitoare, chiar dacă se cunoaşte sistemul de forţe ce
acţionează asupra ei. În schimb, dacă prin starea particulei înţelegem nu numai poziţia ei
ci şi viteza sa, atunci evoluţia ei este complet determinată.
În acest sens, orice proces stochastic se poate transforma într-un proces de tip
markovian, complicând suficient stările, astfel încât ele să înglobeze, la orice moment,
întreaga istorie a procesului.
0 0
0 0
124 Eroare! Legătură incorectă.
t0
(9.11)
D(ξ) = 2 ∫ tΦ ( t )dt − m *
2
Dacă h este suficient de mic, atunci : & (t)-& (t+h) -h & ’(t) şi (13.9) devine :
(
P B/A ≈ − ) Φ ′( t )
Φ( t )
h = λ ( t ) ⋅ h; λ = −
Φ′
Φ
,
(9.14)
t
0 I II III
Fig.9.1.
Prima perioadă (I) din figură arată că riscul descreşte în timp, adică acesta este mai
mic după trecerea unui timp de la darea în exploatare. Aceasta este perioada rodajului.
Eroare! Legătură incorectă. 125
STATISTICĂ MATEMATICĂ
Observaţie: Dacă volumul N al colectivităţii C este mare dar finit, iar volumul n al subcolectivităţii S
este suficient de mic, deosebirea între cele două tipuri de selecţii este foarte mică iar în aplicaţii selecţiile
nerepetate se pot considera ca selecţii repetate. De aceea ne vom opri doar asupra selecţiilor repetate (cu
revenire). Pentru m şi D din cazul selecţiei repetate şi respectiv m1, D1 din cazul selecţiei nerepetate, există
relaţiile:
N-n
D1 = D (relaţia dintre dispersii)
N -1
N-n
Dacă n<<N, atunci raportul ≈ 1 şi în acest caz avem o „identitate” între rezultatele
N -1
din cadrul celor două tipuri de selecţii.
Selecţia poate fi simplă sau stratificată. Este simplă când se aplică unei colectivităţi
omogene formată din elemente care au caracteristica studiată în aceeaşi proporţie şi
stratificată dacă se aplică unei colectivităţi neomogene care se împarte în subcolectivităţi
omogene.
Notăm cu x1, ... ,xn valorile variabilei teoretice x pentru fiecare element ce formează S,
astfel încât variabila empirică x* va avea tabloul de distribuţie:
⎡x1 K x n ⎤
⎢ ⎥
x* : ⎢ ⎥
⎢ 1 K 1⎥
⎣⎢ n n ⎥⎦
Dacă se face o nouă selecţie, datorită caracterului său aleator, variabila aleatoare
empirică x* poate să aibă alte valori ceea ce ne determină să considerăm valorile sale x1,
... ,xn ca fiind de fapt variabile aleatoare care sunt identice din punct de vedere
probabilistic, cu variabila teoretică x. Această afirmaţie ne permite să scriem egalităţile:
1 n 1 n
* *
m =M( x )= ∑ xj , D = D( x * )=
*
∑ ( x j - m* )2
n j=1 n j=1
1 n r 1 n
* *
M r = M(x ) =
r
∑xj ,μ *
r = M(( x* - m* )r ) = ∑ ( x j - m* )r
n j=1 n j=1
Eroare! Legătură incorectă. 129
Observaţie: Variabila empirică x* se poate considera scrisă prin intermediul unui tablou de distribuţie
de forma:
⎛ x1 K x k ⎞
x* : ⎜ ⎟,
⎜n K n ⎟
⎝ 1 k ⎠
(
unde x i i = 1, n ) sunt valorile distincte ale variabilei teoretice x iar n i i = 1, n ( ) sunt frecvenţele
absolute cu care apar valorile xi în cazul unei selecţii de volum n. Deci n=n1+ ... +nk. În acest caz, pentru
caracteristicile de selecţie avem relaţiile :
1 k 1 k
∑ i ∑ (xi - m* ) ni ,
* * * * 2
m = M( x ) = x i n , D = D( x ) =
n i =1 n i =1
1 k r 1 k
∑ μ
* * r
∑ ( x i - m* )r n i
r
* *
M r = M( x* ) = x i n i , r = M(( x - m ) ) =
n i =1 n i =1
Dacă variabila teoretică x este discretă respectiv continuă şi dacă :
- probabilităţile pi respectiv funcţia de densitate f depind de s parametri λ1, λ2, ... , λs ;
- se cunoaşte distribuţia în funcţie de parametri.;
atunci suntem în cazul unei legi specificate.
Cu ajutorul selecţiei se vor determina parametri ce caracterizează distribuţia.
1
Fn* (x 0 ) = n (x 0 )
n
Exemplu:
Să se determine Fn*(x0) în cazul unei selecţii de volum n=100 asupra unei variabile
aleatoare x cu tabloul de repartiţie:
⎡ 0 1 6 9⎤
⎢ ⎥
⎣30 15 10 45⎦
4
Observăm că n = ∑ n k = 30 + 15 + 10 + 45 = 100 . Funcţia de repartiţie de selecţie :
1
130 Eroare! Legătură incorectă.
⎧ 0 , x≤0
⎪ 30
⎪ = 0,3 , 0 < x ≤1
⎪ 100
*
⎪ 45 = 0,45 , 1< x ≤ 6
F100 (x) = ⎨100
⎪ 55
⎪100 = 0,55 , 6< x≤9
⎪ 100
⎪ =1 , x >9
⎩ 100
* defineşte o statistică. Ea este în realitate o variabilă aleatoare pentru care avem îndeplinită
egalitatea :
( )
lim P λ* − λ < ε = 1, (∀) ε > 0 ,
n→N
(∀) ε > 0, (
lim P λ* − λ < ε = 1
n→N
)
Pentru selecţia dată estimatorul λ* are o valoare determinată, notată λd* şi numită
estimaţie consistentă, iar coeficientul de siguranţă cs=P( λd*-λ <ε) este probabilitatea
care fixează gradul de apropiere al estimaţiei consistente λd* faţă de parametrul estimat λ.
Se preferă acei estimatori λ* care conduc la coeficienţi de siguranţă cât mai apropiaţi de
unitate.
De exemplu, legea numerelor mari, a lui Bernoulli, arată că în cazul distribuţiei
binomiale, fn(A) este un estimator consistent pentru p=P(A) întrucât avem:
Demonstraţie :
Avem M(λ*)=λ şi D(λ*) 0 (n N). Aplicăm inegalitatea lui Cebîşev variabilei λ* :
D(λ*)
P(| λ* - λ |< ε) ≥ 1 - 2
ε
⎛1 n ⎞ 1 n 1 n 1
M(M *r ) = M⎜⎜ ∑ x rj ⎟⎟ = ∑ M( x rj) = ∑ M r = nM r = M r
⎝ n j=1 ⎠ n j=1 n j=1 n
⎛1 n ⎞ 1 n 1 n 1 D( x r )
D(M*r) = D⎜⎜ ∑ x rj ⎟⎟ = ∑ D( x rj) = 2 ∑ D( x r ) = 2 nD( x r ) = →0
⎝ n j=1 ⎠ n 2 j=1 n j=1 n n
când n → ∞ .
1 n
În particular, media de selecţie m* = ∑ x j este un estimator absolut corect al mediei
n j=1
teoretice m.
2) Momentul centrat de selecţie μr* este un estimator corect al momentului centrat teoretic μr.
Observaţie:
3
~ = n μ* şi μ
Valorile μ ~ = n *
μ3 estimează absolut corect momentele centrate
2 2 3
n -1 (n - 1)(n - 2)
teoretice μ2 şi μ3.
Eroare! Legătură incorectă. 133
1 n
*
În particular, dispersia de selecţie D* = μ 2 = ∑
n 1
( x j - m* )2 este un estimator corect iar
~ ~ 1 n
D=μ 2 = ∑
n -1 1
( x j - m* )2 este un estimator absolut corect (deci şi nedeplasat) pentru dispersia
teoretică D.
Teorema 2 (fără demonstraţie) : Dacă n este suficient de mare (n>30), Mr* are o
1 n
În particular, m* = M 1* = ∑ x j are o distribuţie normală de parametri m şi
n 1
1 1
(M 2 - M 12 ) = D .
n n
3. Estimator eficient.
Fie de estimat parametrul λ şi considerăm funcţia de densitate de probabilitate f sau
funcţia de probabilitate (adică probabilităţile) în cazul discret, care depinde de λ, adică
f=f(x;λ).
După Fischer, expresia :
⎛⎛ ∂ ⎞ ⎞⎟
2
⎛ ⎛ f λ′ ⎞ 2 ⎞
I(λ) = n ⋅ M ⎜ ln f ( x; λ ) ⎟ = n ⋅ M⎜ ⎜ ⎟ ⎟,
⎜
⎜ ⎝ ∂λ ⎠ ⎟⎠ ⎜⎝ f ⎠ ⎟
⎝ ⎝ ⎠
1
e(λ*) =
I(λ) ⋅ D(λ*)
134 Eroare! Legătură incorectă.
se numeşte eficienţa estimatorului λ*. Dacă λ* este estimator eficient atunci e(λ*)=1
(deoarece I(λ) D(λ*)=1).
Estimatorul λ* se numeşte asimptotic eficient dacă lim e(λ*) = 1 .
n →∞
Variabila de selecţie x*(x1, ... ,xn) reflectă variabila teoretică x şi această reflectare este
măsurată prin probabilitatea realizării tuturor evenimentelor x=xj, deci a intersecţiei
n
I (x = x
j=1
j ) . Această probabilitate, notată V(x1,... ,xn; λ1, ..., λs), se numeşte funcţia de
⎛ n ⎞ n n
V( x1 , K , x n ; λ1 K , λs) = P⎜⎜ I (x = x j ) ⎟⎟ = ∏ P(x = x j ) = ∏ f(x j ; λ1 K , λs)
⎝ j=1 ⎠ j=1 j=1
∂V ∂V ∂V
= 0, = 0, K , =0
∂ λ1 ∂ λ2 ∂ λs
Observaţie : În calcule, în locul funcţiei V se poate utiliza funcţia ln V, care conduce la aceleaşi soluţii
pentru estimatorii de verosimilitate maximă, aşa încât se poate considera sistemul :
∂ ln V ∂ ln V ∂ ln V
= 0, = 0, K , =0
∂ λ1 ∂ λ2 ∂ λs
Teorema 3 : Un estimator de verosimilitate maximă, pentru valori mari ale lui n este o
variabilă aleatoare normală cu m=λ şi D=1/I(λ).
Exemple :
Eroare! Legătură incorectă. 135
f(x; p) = Cnx p x (1 - p )n - x ,
deci :
n
V( x1 , K , x n ; p) = ∏ Cnx j p x j (1 - p )n - x j ,
j=1
astfel încât :
n
ln V = ∑ [ln Cnx j + x j ln p + (n - x j ) ln (1 - p)] .
j=1
Derivând, obţinem :
∂ ln V
∂p
n ⎛x
= ∑ ⎜⎜ -
j=1 ⎝ p
j n-xj ⎞
⎟=
1 ⎛ n
⎜
⎜ ∑
1 - p ⎟⎠ p(1 - p) ⎝ 1
x j -
n
∑
1
np
⎞
⎟
⎟ =
1
⎠ p(1 - p)
(∑
n
1
)
x j - n 2p = 0
n
1 n
De aici, ∑ x j - n 2 p = 0 , de unde : np =
1
∑
n j=1
x j = m * şi se constată astfel că media de
⎧ ∂ ln V 1 n
⎪ ∂m = -
2 σ2
⋅ 2 ∑ ( x j - m)(-1) = 0
⎪ j=1
⎨
⎪ ∂ ln V = - n + 1
n
3 ∑ xj
( - m )2 = 0
⎪ ∂σ σ σ j=1
⎩
De aici, deducem :
⎧ n
⎪ ∑ ( x j - m) = 0
⎪ j=1
⎨n ,
⎪ ( x - m ) 2 = n σ2
⎪∑ j
⎩ j=1
cu soluţia :
1 n 1 n
*
m = ∑ ,
xj σ*2 =
∑ ( x j - m* )2
n j=1 n j=1
∑x j n
V( x1 , K , x n ; λ) = λ 1 ⋅ (1 - λ )n -∑1 x j
şi prin logaritmare :
n
⎛ n
⎞
ln V = ∑ x j ln λ + ⎜⎜ n - ∑ x j ⎟⎟ ln (1 - λ ) ,
1 ⎝ 1 ⎠
∂ ln V 1 n 1 ⎛ n
⎞
= ∑ xj - ⎜⎜ n - ∑ x j ⎟⎟ = 0
∂λ λ 1 1- λ ⎝ 1 ⎠
Eroare! Legătură incorectă. 137
având soluţia :
1 n
λ =
*
∑ xj
n 1
Apoi,
⎛ ⎛ ∂ ln f ⎞2 ⎞ 1 ⎛ ∂ ln f(x; λ) ⎞2 1
⎛ x 1- x ⎞
2
⎜ ⎝ ∂λ ⎟⎠ ⎟ ∑ ∑
M⎜ ⎜ ⎟ = ⎜ ⎟ ⋅ f(x; λ ) = ⎜ - ⎟ f(x; λ ) =
⎝ ⎠ x = 0 ⎝ ∂λ ⎠ x = 0 ⎝ λ 1 - λ ⎠
2 2
⎛ 1 ⎞ ⎛1⎞ 1 1 1
=⎜ - ⎟ (1- λ ) + ⎜ ⎟ ⋅λ = + =
⎝ 1- λ ⎠ ⎝λ⎠ 1 - λ λ λ (1 - λ )
deci :
⎛ ⎛ ∂ ln f(x; λ ) ⎞2 ⎞ n
I(λ ) = nM⎜ ⎜ ⎟ ⎟⎟ =
⎜⎝ ∂λ ⎠ ⎠ λ (1 - λ)
⎝
⎛1 n ⎞ 1 n 1 n nλ(1 - λ) λ (1 - λ )
D(λ*) = D⎜⎜ ∑ x j ⎟⎟ = ∑ D( x j) = 2 ∑ (λ - λ 2) = 2
=
⎝ n 1 ⎠ n2 1 n j=1 n n
Astfel :
1 1
= = 1,
I(λ ) ⋅ D(λ*) n λ (1 - λ )
⋅
λ (1 - λ) n
~ ~
Fie λ nedeplasat, adică M(λ ) = λ , obţinut experimental pe baza selecţiei efectuate. Să
estimăm acum eroarea posibilă. Pentru aceasta, alegem o probabilitate α suficient de mare şi
determinăm valoarea ε aşa încât să avem :
~
P(|λ -λ |< ε) = α
sau :
~ ~ ~ ~
P(λ -ε < λ < λ +ε) = α , Iα = (λ -ε,λ +ε)
Observaţie: Reţinem că λ este o mărime fixă (nealeatoare) în timp ce intervalul de încredere Iα este
~
aleator, determinat pe baza datelor experimentale, având centrul în λ (care este o valoare aleatoare) şi
lungimea 2ε.
Din această cauză se mai spune că α este probabilitatea ca Iα să conţină punctul λ.
~ ~
Extremităţile intervalului Iα, adică λ-ε şi λ+ε se numesc limite de încredere.
~ ~
Determinarea limitelor de încredere λ1 = λ -ε şi λ 2 = λ +ε în cazul când legea de repartiţie
~ ~
a variabilei λ este cunoscută se face uşor, determinând ε astfel ca P(|λ -λ |< ε) = α .
~
Problema se complică în cazul când legea de repartiţie a variabilei λ nu este cunoscută.
Pentru a evita aceste complicaţii se pot exprima parametrii necunoscuţi care-l determină pe ε
prin estimatorii lor punctuali.
1. Interval de încredere pentru valoarea medie.
Presupunem că variabila aleatoare teoretică x are m şi D necunoscute. Fie x1, ..., xn
valorile variabilei x*, de selecţie, obţinute prin efectuarea unei selecţii de volum n. Se cunosc
expresiile pentru estimatorii valorii medii şi dispersiei date de relaţiile :
1 n ~ 1 n
*
m = ∑
n j=1
x j , D = ∑
n - 1 j=1
( x j - m* )2 ,
D
integrale a lui Laplace, iar σ = . Dacă dispersia teoretică D nu se cunoaşte, atunci în
n
~
~= D
locul lui σ se poate lua σ .
n
Observaţie :
Dacă volumul selecţiei n este relativ mic (n 20), atunci pentru Iα se poate lua intervalul:
⎛ * ~
σ ~ ⎞
σ
⎜ m - tα , m* + t α ⎟
⎝ n n⎠
unde tα se determină din ecuaţia P( t >tα)=1-α, corespunzătoare distribuţiei „t” (student) cu n-1 grade de
libertate, α fiind coeficientul de încredere, iar
~
~= D 1 n
σ = ∑
n - 1 j=1
( x j - m* )2
Exemple :
1) Să se determine intervalul de încredere, cu coeficient de încredere α=0,9973,
pentru media diametrului unui lot de produse normal repartizat, considerând că se face o
selecţie de n=9 produse pentru care se obţine m*=2mm şi σ=0,01mm.
Avem :
⎛α⎞
ε = σ Φ -1 ⎜ ⎟ = 0,01 ⋅ Φ -1 (0,4986) = 0,01 ⋅ 2,99 = 0,0299,
⎝2⎠
-1
Φ obţinându-se din tabelul de funcţii Laplace existent în diverse cărţi de specialitate sau în
tabele matematice uzuale. Astfel: Iα=(2-0,0299;2+0,0299)=(1,9701;2,0299).
2) Să se rezolve problema de mai sus pentru α=0,8, în cazul în care diametrul nu urmează
o lege normală. Cum n=9 (volum mic) folosim intervalul de încredere precizat în observaţia
de mai sus. Astfel, δ=1-α=1-0,8=0,2 şi tα=1,397 (tabelat în anexe, în cărţi de specialitate)
~ = 0,01 3, rezultă intervalul de încredere :
corespunzător la n-1=8 grade de libertate. Cum σ
⎛ 0,01 0,01 ⎞
⎜ 2 - 1,397 ⋅ ;2 + 1,397 ⋅ ⎟ = (1,9953;2,0047)
⎝ 3 3 ⎠
j 1 2 3 4 5 6 7 8 9 10
xj 10,5 10,8 11,2 10,9 10,4 10,6 10,9 11,0 10,3 10,8
j 11 12 13 14 15 16 17 18 19 20
xj 10,6 11,3 10,5 10,7 10,8 10,9 10,8 10,7 10,9 11,0
Avem :
1 20 10,5 + K + 11,0
*
m = ∑
n 1
xj =
20
= 10,78
~ 1 20 (-0,28 )2 + K + (0,22 )2
D= ∑ (x j- m ) =
n -1 1
* 2
19
= 0,06379
Astfel :
~
D 0,06379
σ= = = 0,05647
n 20
deci :
⎛α⎞
ε = σ Φ -1 ⎜ ⎟ = 0,05647 ⋅ Φ -1 (0,4) = 0,05647 ⋅ 1,28 = 0,07228
⎝2⎠
Rezultă :
~ 1 n 1 n
D= ∑
n - 1 j=1
( x j - m* )2 , unde m* = ∑ x j este media de selecţie.
n j=1
~ ( x j - m* )2
Estimatorul D este suma a n variabile aleatoare independente , deoarece
n -1
conţin aceeaşi variabilă m*. Se poate demonstra că atunci când n creşte această sumă
~
converge spre legea normală (practic pentru n 30). Se arată că M(D) = D ceea ce arată că
Eroare! Legătură incorectă. 141
~ ~ 2 2
D este un estimator nedeplasat pentru D. De asemenea, D(D) = D , unde înlocuind
n -1
~ ~ 2 ~2
parametrul necunoscut D cu estimatorul său D avem : D(D) = D .
n -1
~ ~
Considerând egalitatea P(| D - D |< ε) = α transmisă pentru variabila normală D ,
~ ~ ~ 1 n
obţinem Iα = (D - ε , D + ε) , unde : D = ∑
n -1 1
( x j - m* )2 iar ε este soluţia ecuaţiei
⎛ ε ⎞ α ⎛α⎞ 2 ~
Φ⎜⎜ ⎟⎟ = , adică ε = σD~ ⋅ Φ -1 ⎜ ⎟ unde σD~ = ⋅D.
⎝ σD~ ⎠ 2 ⎝2⎠ n -1
Observaţie : Dacă n este relativ mic (n 20) intervalul de încredere pentru dispersia teoretică D este :
⎛ n -1 ~ n -1 ~ ⎞
⎜ 2 D , 2 D⎟
⎜χ
⎝ M χm ⎟⎠
2 2 2
unde : χM şi χ m sunt valorile variabilei χ cu (n-1) grade de libertate corespunzătoare probabilităţilor :
2 2 1+ α 1- α
δm = P(χ > χm ) = şi δM = P(χ2 > χ2M ) =
2 2
Exemple :
1) În condiţiile exemplului 3) din 10.2.1.1., să se determine intervalul de încredere pentru
dispersia teoretică D şi abaterea medie pătratică D corespunzătoare coeficientului de
încredere α=0,8.
~ 2~
Am văzut că D = 0,06379 , iar σD~ = D = 0,02069 . Deci, ε va fi :
19
ε=0,02069⋅φ-1(0,4)=0,02069⋅1,28=0,02648 şi intervalul de încredere pentru D este :
1+ α
δm = = 0,975 , δM = 0,025
2
142 Eroare! Legătură incorectă.
Din tabele, deducem χ2m = 2,70 , χ2M = 19,0 , deci intervalul de încredere pentru D este
2
Astfel de teste sunt de exemplu : testul , testul Kolmogorov, testele Neyman-
Pearson etc.
Metode empirice uzuale
O formă puternic asimetrică poate sugera folosirea legii lognormale, gamma, Weibull
sau beta care au curbe de densitate asemănătoare, cel puţin pentru anumite valori ale
parametrilor.
Panta dreptei obţinute, furnizează o estimare grafică a lui iar ordonata sa la origine
o estimare a lui .
3.Legea Gauss-Laplace
X−m
Pentru simplitate, vom considera legea normală normată N(0,1), notând = U.
σ
Dacă observaţiile xi provin de la o variabilă normală N(m,), atunci valorile
xi − m
ui = constituie un eşantion al variabilei normate U. Dacă numărul observaţiilor
σ
este mare, atunci funcţia de repartiţie empirică F* (a eşantionului) trebuie să difere puţin
de funcţia de repartiţie teoretică, aşa cum rezultă ea din tabele.
Notăm cu Fi valorile funcţiei de repartiţie empirice (adică numărul valorilor mai mici
ca xi împărţit la n). Acestor valori empirice le asociem valorile corespunzătoare ui* ale
v.a. normale normate obţinute din tabel. Atunci, dacă distribuţia este într-adevăr normală
Eroare! Legătură incorectă. 145
xi − m
(gaussiană) şi dacă n este mare, ui* trebuie să difere puţin de u i = şi trebuie deci
σ
să existe o relaţie liniară între ui* şi xi. Graficul trasat prin punctele (ui*,xi) trebuie să fie
1
aproape o dreaptă tăind axa Ox în m şi având panta . Această dreaptă se numeşte
σ
dreapta lui Henry.
10.3.4. Aplicaţii
1) Legea unui procentaj. Se aleg independent şi cu întoarcere n indivizi ai unei
populaţii separate în două submulţimi A şi A în proporţii de p şi respectiv 1-p (de
exemplu piese rebut sau piese bune, etc.). Fie k numărul indivizilor din A,
obţinuţi în eşantion. Această v.a. ştim că urmează o lege binomială B(n,p). Notăm
cu F=k/n frecvenţa empirică a categoriei A. F este media aritmetică a n variabile
Bernoulli de parametri p, independente.
Avem :
p(1 − p)
M(F)=p şi D(F) = ,
n
iar dacă n este mare, atunci :
⎛ p(1 − p) ⎞
F ~ N⎜⎜ p, ⎟,
⎟
⎝ n ⎠
conform teoremei limită centrală.
Convergenţa lui F către p, cunoscută sub numele de teorema Moivre-Laplace este una
din primele aplicaţii ale legii numerelor mari.
Exemplu :
Pentru legea binomială, aproximarea gaussiană a lui F este valabilă dacă np şi n(1-p)
sunt superioare lui 5. Astfel, pentru un eşantion de 400 de piese rezultate în urma unei
prelucrări, în care 10% sunt piese cu defecte, ne putem aştepta să găsim în 95% din cazuri
0,10 ⋅ 0,90
un procentaj de defecte în eşantion cuprins între 10% ± 1,96 , adică
400
9,7%<F<10,3%.
2) Corelarea între m* şi D*. Fie X o caracteristică teoretică de medie m şi dispersie
D=2 pentru care considerăm media de selecţie m* şi dispersia de selecţie D*. Să
determinăm cor(m*,D*).
Avem :
146 Eroare! Legătură incorectă.
⎡ n − 1 ⎞⎤
( ) ( ⎛
)
cor m * , D * = M ⎢ m * − m ⎜ D * −
n
D ⎟⎥
⎣ ⎝ ⎠⎦
=
1 ⎡⎛ n
M
n 2 ⎣⎝ 1
X
⎞⎛ n 2 ⎞⎤
⎢ ∑ i ⎟⎜ ∑ X j ⎟⎥ − M m
⎜
⎠⎝ 1 ⎠⎦
*
[( ) ] = n1 M⎡⎢∑∑ X X ⎤⎥ − M[(m ) ] =
3
2
n n
i
2
j
* 3
⎣ i =1 j=1 ⎦
1 ⎛ n 3⎞ 1 ⎛ n 3⎞
= M⎜ ∑ X i ⎟ − 3 M⎜ ∑ X i ⎟
n2 ⎝ 1 ⎠ n ⎝ 1 ⎠
deoarece M(XiXj)=0 pentru i
j din cauza independenţei.
Deci :
n −1
(
M m*D* = ) 1
n
1
μ3 − 2 μ3 = 2 μ3
n n
Dacă n , observăm că m* şi D* sunt asimptotic necorelate şi dacă distribuţia este
simetrică, 3=0, deci m* şi D* sunt asimptotic necorelate oricare ar fi n.
Eroare! Legătură incorectă. 147
ANEXE
n/p 0.95 0.9 0.85 0.8 0.75 0.7 0.65 0.6 0.55
1 6.28 3.075 1.961 1.374 1 0.726 0.509 0.325 0.158
2 2.913 1.884 1.384 1.06 0.816 0.617 0.444 0.289 0.142
3 2.352 1.637 1.249 0.978 0.764 0.584 0.424 0.277 0.137
4 2.131 1.533 1.189 0.941 0.74 0.569 0.414 0.271 0.134
5 2.015 1.476 1.155 0.918 0.726 0.559 0.408 0.267 0.132
6 1.938 1.44 1.134 0.904 0.717 0.553 0.404 0.265 0.131
7 1.891 1.412 1.119 0.895 0.711 0.549 0.401 0.263 0.13
8 1.856 1.394 1.108 0.888 0.706 0.546 0.399 0.262 0.13
9 1.83 1.381 1.1 0.882 0.703 0.543 0.398 0.261 0.129
10 1.81 1.37 1.093 0.878 0.7 0.542 0.396 0.26 0.129
11 1.794 1.362 1.088 0.875 0.697 0.54 0.395 0.26 0.129
12 1.78 1.354 1.083 0.872 0.695 0.539 0.394 0.259 0.128
13 1.769 1.349 1.079 0.869 0.694 0.537 0.394 0.258 0.128
14 1.759 1.343 1.076 0.867 0.692 0.537 0.393 0.257 0.128
15 1.751 1.339 1.073 0.866 0.691 0.536 0.393 0.257 0.128
16 1.744 1.335 1.071 0.864 0.69 0.535 0.392 0.257 0.128
17 1.738 1.332 1.069 0.863 0.689 0.534 0.392 0.256 0.127
18 1.732 1.329 1.067 0.861 0.688 0.534 0.391 0.256 0.127
19 1.728 1.326 1.065 0.86 0.688 0.533 0.391 0.256 0.127
20 1.723 1.324 1.064 0.859 0.687 0.533 0.391 0.256 0.127
21 1.719 1.322 1.063 0.858 0.686 0.532 0.39 0.256 0.127
22 1.716 1.32 1.061 0.858 0.686 0.532 0.39 0.255 0.127
23 1.712 1.318 1.06 0.857 0.685 0.532 0.39 0.255 0.127
24 1.71 1.317 1.059 0.856 0.685 0.531 0.39 0.255 0.127
25 1.707 1.315 1.058 0.856 0.684 0.531 0.39 0.255 0.127
26 1.704 1.314 1.057 0.855 0.684 0.531 0.389 0.255 0.127
27 1.702 1.313 1.057 0.855 0.684 0.531 0.389 0.255 0.127
28 1.7 1.311 1.056 0.854 0.683 0.53 0.389 0.255 0.127
29 1.698 1.31 1.055 0.854 0.683 0.53 0.389 0.255 0.127
30 1.696 1.309 1.055 0.853 0.683 0.53 0.389 0.255 0.127
150 Eroare! Legătură incorectă.
x 0 .. 9
y 0 .. 45
x y . 10 x y
Ay 1, x 1
cnorm cnorm( 0 ) A0 , x 1
Ay 1, 0
100 100 10
Pentru anexa 2 :
x 1 .. 9
y 0 .. 60
x y . 10 x y
Ay 1, x 1
Γ A0 , x 1
Ay 1, 0
100 100 10
y . 10
y 1 .. 60 Ay 1, 1
Γ
100
Pentru anexa 3 :
t 0.158
p 9 , 8 .. 1 n 1 .. 30
p t
An , 0 n A0 , p 1 n 1
p . . . n
20 2
2 1 nπ Γ
x 10 2
An , p root 1 dx ,t
n n 1
2. Γ
0 2
Eroare! Legătură incorectă. 151
BIBLIOGRAFIE
1. Baron, T., Biji, E., - Statistică teoretică şi economică, Editura Didactică şi
Tovissi, L. Pedagogică, Bucureşti, 1991.
2. Biji, M., Biji, E. - Statistică teoretică, Editura Didactică şi Pedagogică,
Bucureşti, 1976.
3. Ciucu, G., Craiu, V., - Culegere de probleme de teoria probabilităţilor,
Săcuiu, I. Editura Tehnică, Bucureşti, 1966.
4. Ciucu, G., Craiu, V. - Introducere în teoria probabilităţilor şi statistică
matematică, Editura Didactică şi Pedagogică,
Bucureşti, 1971.
5. Ciucu, G., Craiu, V., - Statistică matematică şi Cercetări operaţionale,
Ştefănescu, A. vol.III, Editura Didactică şi Pedagogică, Bucureşti,
1978.
6. Crstici, B, ş.a. - Matematici speciale, Editura Didactică şi Pedagogică,
Bucureşti, 1981.
7. Dani, E., - Matematici aplicate în economie, Universitatea Cluj-
Mureşan, A. Napoca, 1988.
8. Cătuneanu, V.M - Bazele teoretice ale fiabilităţii, Editura Academiei,
Bucureşti, 1983
9. Gărlaşu, Şt. - Prelucrarea în timp real a semnalelor fizice, Editura
Scrisul Românesc, Craiova, 1978
10. Gârlaşu, Şt., - Fiabilitatea sistemelor, Universitatea „Eftimie
Gillich, N. Murgu”, Reşiţa, 1994.
11. Gărlaşu, Şt., - Introducere în analiza spectrală şi de corelaţie 1982,
Popp, C., Ionel, S. Editura Facla, Timişoara, 1982
12. Gillich, N., - Probabilităţi şi fiabilitate, Universitatea „Eftimie
Praisach, V. Murgu”, Reşiţa, 1995.
13. Iliescu, D.V., – Statistică şi toleranţe, Editura Tehnică, Bucureşti,
Vodă, V.Gh. 1977.
14. Iosifescu, M., Mihoc, - Teoria probabilităţilor şi statistică matematică,
Gh., Theodorescu, R. Editura Academiei R.S.R., Bucureşti, 1965.
15. Iosifescu, M. - Lanţuri Marcov finite şi aplicaţii, Editura Tehnică,
152 Eroare! Legătură incorectă.
Bucureşti, 1977.
16. Mihoc, Gh., Muja,A., - Bazele matematice ale teoriei fiabilităţii, Editura
Diatcu, E. Dacia, Cluj-napoca, 1976.
17. Mihoc, Gh., Urseanu, - Modele de analiză statistică, Editura Ştiinţifică şi
V., Ursianu, E. Enciclopedică, Bucureşti, 1982.
18. Popp, C. - Matematici pentru economişti, vol.III., Universitatea
„Eftimie Murgu”, Reşiţa, 1994.
19. Puiu, G., Nechita, E. - Calculul probabilităţilor şi elemente de statistică
matematică, (note de curs), Universitatea Bacău, 1996.
20. Trandafir, R. - Introducere în teoria probabilităţilor, Editura
Albatros, Bucureşti, 1979.
21. Velicescu, C – Fiabilitate în energetică, curs, Lito IPTV Timişoara,
1984.
22. Velicescu,C., – Fiabilitatea instalaţiilor electrice, culegere de
Oprea, L. probleme, Lito UP Timişoara, 1996.