Sunteți pe pagina 1din 48

§1)Probabilitatea

1)Evenimente întâmplătoare
Acestea pot fi clasificate în evenimente sigure, evenimente imposibile și evenimente
întâmplătoare.
Eveniment sigur-eveniment care se produce în mod obligatoriu la efectuarea unui anumit
experiment.
Eveniment imposibil-eveniment care nu se produce în mod obligatoriu la efectuarea unui anumit
experiment.
Eveniment întamplator-eveniment care poate fie să se producă fie să nu se producă la efectuarea
unui anumit experiment.
Două sau mai multe evenimente se numesc incompatibile dacă producerea unuia dintre ele exclude
producerea celorlalte într-o aceeași probă.
2)Definiția clasică a probabilității
Se numește probabilitate a unui eveniment P(A) și se notează cu P(A)raportul dintre numărul m
de rezultate favorabile producerii lui A și numărul total n de rezultate ale experimentului:
𝑚
𝑃(𝐴) = 𝑛 .

Exercițiu 1.: Într-o urnă amestecăm 10 bile identice în care sunt 6 albe și 4 negre, extragerea din
urnă poate avea 10 rezultate egal posibile. Cazurile favorabile A=6 deoarece în urnă avem bile
6 3
albe. Din acest caz rezultă 𝑃(𝐴) = 10 = 5

Din definiția probabilității rezultă urmatoarele proprietății:


1)Probabilitatea evenimentului sigur este 1 întrucat în acest caz avem m=n.
2)Probabilitatea evenimentului imposibil este 0 întrucatin acest caz m=0.
3)Probabilitatea unui eveniment intamplator este cuprinsa între 0 și 1 întrucat în acest caz
0<m<n.
Din aceste proprietăți rezultă probabilitatea oricărui eveniment A satisfice dubla inegalitate
0≤P(A)≤ 1.
3)Principiul imposibilității practice a evenimentelor cu probabilitate mică.
În urma studiilor a aratat la evenimentele cu probabilitate foarte mică reiese urmatoarea afirmație:
dacă un eveniment întâmplător are probabilitate foarte apropiată de 1, atunci se consideră
eveniment sigur într-o singură experiență.
4)Teorema adunării probabilităților evenimentelor incompatibile.

1
Teorema: probabilitatea producerii unuia dintre evenimentele incompatibile A și B este egală cu
suma probabilităților acestor evenimente.
P(A ∪ B)=P(A)+P(B).
Consecință: probabilitatea producerii unuia dintre mai multe evenimente incompatibile este egală
cu suma probabilităților acestor evenimente.Pentru trei evenimente incompatibile A,B,C rezultă:
P(A ∪ 𝐵 ∪ 𝐶) = 𝑃[A ∪ 𝐵 ∪ 𝐶] = 𝑃(A ∪ 𝐵) + 𝑃(𝐶) = 𝑃(𝐴) + 𝑃(𝐵) + 𝑃(𝐶).
Exercițiu 2:
Într-o urnă se gasesc 44 bile; 16 roșii, 11 negre și 17 albe. Care este probabilitatea de a extrage o
bila colorată?
16
P(A)=44
11
P(B)=44
16 11 27
P(A∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) = 44 + 44 = 44

5)Evenimente contrare
Doua evenimente se numesc contrare dacă ele sînt incompatibile și reuniunea lor este evenimentul
sigur Ω.
Teoremă: Suma probabilităților a două evenimente contrare este egale cu 1:
P(A)+P(CA)=1
6)Sistem complet de evenimente
Evenimentele 𝐴1 , 𝐴2 , … . . , 𝐴𝑟 formează un sistem compet de evenimente dacă un experiment
conduce la unul și numai unul singur dintre aceste evenimente. Cu alte cuvinte evenimentele
𝐴1 , 𝐴2 , … . . , 𝐴𝑟 sunt incompatibile și reuniunea lor este egală cu evenimentul sigur Ω.
Teoremă: Suma probabilităților evenimentelor dintr-un sistem complet de evenimente este egal
cu 1
𝑃(𝐴1 ) + 𝑃(𝐴2 ) + ⋯ . . +𝑃(𝐴𝑟 ) = 1
1.1.1 Evenimente. Operaâții cu evenimente.
Rezultatul unei experiențe poartă numele de eveniment.
Definiția 1.1.1. Dacă A și B sunt două evenimente atunci:
i) prin “ A sau B” notat A ∪ B întelegem eveniment realizat dacă și numai dacă cel puțin
unu dintre cele două evenimente se realizează.

2
ii) prin “ A sau B” notat A ∩ B întelegem eveniment realizat dacă și numai dacă ambele
evenimente se realizează.
iii) Prin “non A”, notat 𝐴𝐶 B întelegem eveniment realizat dacă și numai dacă A nu se
realizează.
Definiția 1.1.2. Numim “evenimentul sigur”, notat Ω, eveniment realizat în orice probă.
Definiția 1.1.3. Numim “evenimentul imposibil”, eveniment care nu se realizează în nici o probă.
Definiția 1.1.4. Numim “eveniment întâmplător” eveniment care poate să se producă sau nu în
orice probă.
Definiția 1.1.5. Fie A și B doua evenimente. Spunem că “A implică B” și scriem A ⸦ B atunci
cand realizarea lui A are ca efect realizarea lui B.
Definiția 1.1.6. Un eveniment A este elementar dacă B ⸦ A implică B=Ø sau B=A.
Definiția 1.1.7. Fie (𝐴𝑛 )n𝜖 N un șir de evenimente.
i) Prin “⋃∞
𝑛=1 𝐴𝑛 vom intelege un eveniment B care satisface conditiile prezentate in curs.

Ii) Prin ⋂∞
𝑛=1 𝐴𝑛 vom intelege evenimentul C care satisfice conditiile prezentate in curs.

Definiția 1.1.8. Fie ℐ nevidă înzestrată cu operațiile ∪,∩, c respective.


i)ℐ este o algebră booleană dacă satisface axiomele:
a) A, B 𝜖 ℐ rezultă A ∪ B 𝜖 ℐ
b) A 𝜖 ℐ rezultă 𝐴𝐶 𝜖 ℐ
ii) A este o s-algebră boleană dacă satisfice axiomele:
a) 𝐴𝑛 𝜖 ℐ, n 𝜖 N* rezulta ⋃∞
𝑛=1 𝐴𝑛 𝜖 ℐ
𝑐
b) A 𝜖 ℐ rezulta 𝐴 𝜖ℐ
Fie acum Ω o mulțime ale cărei elemente o notăm 𝜔, și P(Ω) mulțimea părților lui Ω. În mulțimea
lui Ω se introduce operațiile logice notate ∪,∩, c.
Dacă A, B, C𝜖 P(Ω) atunci:

i) A∪ 𝐵 = {𝜔𝜖Ω│Ω𝜖𝐴 𝑠𝑎𝑢 Ω𝜖 𝐵}
ii) A∩ 𝐵 = {𝜔𝜖Ω│Ω𝜖𝐴 𝑠𝑎𝑢 Ω𝜖 𝐵}
iii) Ac ={𝜔𝜖Ω│Ω𝜖𝐴 }

Definiția 1.1.9. Spunem că algebrele booleene ℐ și ℐ’ sunt izomorfe dacă există o aplicație
bijective I, h, de la ℒ la ℐ’ care satisfice condițiile:
i) (∀)𝐴, 𝐵𝜖 ℐ rezultă h(A∪ 𝐵)= h(A)∪ ℎ(𝐵);
ii) (∀)𝐴, 𝜖 ℐ rezultă h( Ac)=(h(A))c
Teorema 1.1.1. Orice algebră booleană ℐ este izomorfă cu o algebră de parți.

3
Teorema 1.1.2. Orice σ-algebra booleană este izomorfă cu o σ-algebră de parți.

Exercițiu 3:
Se consideră jocul cu zarul. La o aruncare a zarului apare fața cu i puncte i=1,2,3,4,5,6. Notăm 𝜔1
evenimentul apariției fetei cu I puncte.Definim mulțimea Ω={ 𝜔1, 𝜔2,….., 𝜔6} .Ω este evenimentul
sigur iar Ø=Ωc evenimentul imposibil. Mulțimea părților lui .Ω continue 26 elemente.

1.2.Definiția clasică a probabilității

Definiția 1.2.1. Spunem că 𝜔1 𝜖Ω este un caz favorabil evenimentului A dacă 𝜔1 𝜖A.


Definiția 1.2.2. Numim probabilitatea evenimentului A, notată P(A), raportul dintre numărul
cazurilor favorabile evenimentului A și numărul cazurilor egal posibile.
𝑛𝑢𝑚𝑎𝑟𝑢𝑙 𝑐𝑎𝑧𝑢𝑟𝑖𝑙𝑜𝑟 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑖𝑙𝑒 𝑘
P(A)=𝑛𝑢𝑚𝑎𝑟𝑢𝑙 𝑐𝑎𝑧𝑢𝑟𝑖𝑙𝑜𝑟 𝑒𝑔𝑎𝑙 𝑝𝑜𝑠𝑖𝑏𝑖𝑙𝑒=𝑛

7.Evenimente independente și evenimente dependente


Două evenimente se numesc independente dacă probabilitatea unuia dintre ele nu depinde de faptul
că celălalt eveniment s-a produs sau nu.
Exercițiu 4: Într-o urnă se găsesc 8 bile albe și 2 bile negre. Fie A evenimentul care constă în
extragerea unei bile albe .
8
P(A)=10

Fie B evenimentul care constă în extragerea unei bile negre în aceasta a doua extragere.
2
P(B)= 10, probabilitatea care nu depinde de faptul că evenimentul A s-a produs sau nu.

Două evenimente se numesc dependente dacă probabilitatea unuia dintre ele depinde de faptul că
celălalt eveniment s-a produs sau nu.

8. Teorema înmultirii probabilităților evenimentelor independente.

Fiind date două evenimente A și B, se numesc intersecție a acestor două evenimente , notate A ∩
B evenimentul care constă în producerea simultană a evenimentelor A și B.
În cazul a două evenimente incompatibile, intersecția lor este evenimentul imposibil.

4
Teoremă: Probabilitatea producerii simultane a evenimentelor independente A și B este egală cu
produsul probabilităților acestor evenimente:
P(A ∩ B)=P(A)P(B).
Consecintă: probabilitatea producerii simultane a mai multor evenimente independente în
totalitatea lor este egală cu produsul probabilitatilor acestor evenimente.

P(A ∩ B ∩ 𝐶)=P[ A ∩B) ∩ 𝐶]= P(A ∩ B)P(C)= P(A)P(B)P(C).


EXERCITIU 5: În trei urne se găsec câte 14 bile: în prima 7 sunt albe, în a doua 9 sunt albe iar
în a treia 10 sunt albe. Din fiecare urna se extrage câte o bilă. Care este probabilitatea ca toate
bilele extrase să fie albe:
7
P(A)=14
9
P(B)=14
10
P(C)=14
7 9 10 630
P(A ∩ B ∩ 𝐶)= P(A)P(B)P(C)= 14 ∙ 14 ∙ 14=2744

9. Probabilitate condiționate
Să considerăm doua evenimente A și B.
Se numește probabilitate condiționate a evenimentului B de către evenimentul A și se notează
PA(B), probabilitatea evenimentului B calculate în ipoteza ca evenimentul A s-a produs.
În exercitiul de evenimente dependente dat la pct. 7 avem
𝑏
PA(B)=𝑎+𝑏−1
𝑏−1
PcA(B)= 𝑎+𝑏−1

Din definiția evenimentelor independente rezultă că dacă A și B sînt independente, atunci

PA(B)=P(B), PB(A)=P(A),
De aici rezultă că, probabilitățile condiționate sînt egale cu cele necondiționate.

10. Teorema înmulțirii probabilităților evenimentelor dependente

5
Să presupunem că evenimentele A și B sînt dependente.
Teoremă: Probabilitatea producerii simultane a două evenimente dependente A și B este egală
cu produsul dintre probabilitatea unuia dintre ele și probabilitatea condiționate de acesta a
celuilalt eveniment.
P(A∩B)=P(A) PA(B)
Exercitiu 5: Într-o urnă sînt 7 bile albe și 6 bile negre. Se extrag doua bile din urnă. Care este
probabilitatea ca prima bilă extrasă să fie albă iar cea de a doua bilă să fie neagră?
7
P(A)=13
6 1
PA(B)= =
12 2

7 1 7
P(A∩B)=P(A) PA(B)= 13 ∙ 2=26

Din teorema rezultă că


P(A∩B)
PA(B)= P(A)

11.Formula probabilitatii totale


Teoremă: Probabilitatea unui evenimen B care poate să se producă condiționat de unul din
evenimentele A1, A2,…….., Ar care formeză un sistem complet de evenimente este egal cu suma
produselor dintre probabilitățile acestor evenimente și probabilitatile condiționate
corespunzatoare ale evenimentului B:
P(B)=P(A1)𝑃𝐴1 (𝐵) + P(A2)𝑃𝐴2 (𝐵)+……+ P(Ar)𝑃𝐴𝑟 (𝐵).

12. Formula lui Bernoulli


Pn(k)=𝐶𝑛𝑘 𝑝𝑘 𝑞 𝑛−𝑘
Exercițiu 6: S-a stabilit statistic că într-o mie de noi născuti în medie 485 sînt fete și 515 băieti.
Într-o familie sînt 5 copii. Care este probabilitatea ca dintre acești copii 3 să fie fete?
Probabilitatea nașterii unei fete este p=0,485 iar probabilitatea nașterii unui baiat este q=0,515.
După formula lui Bernoulli, probabilitatea căutata este:
5∙4∙3
P5(3)=𝐶53 𝑝3 𝑞 2 =1∙2∙3 ∙ (0,485)3 (0,515)2 = 0,30

§2) Variabile aleatoare


1.Definiția variabilei aleatoare

6
În general se numește variabila aleatoare o mărime care în funcție de rezultatul unui experiment
poate lua o valoare dintr-o mulțime bine definită de valori
2. Variabile aleatoare discrete si variabile aleatoare continue
Se numește discretă o variabilă aleatoare care poate lua numai valori izolate Numărul valorilor
posibile ale unei variabile aleatoare discrete ξ poate fi finită sau infinită.
Se numește continua o variabilă aleatoare ale cărei valori posibile umplu un interval finit sau
infinit. Evident numărul valorilor posibile ale unei variabile aleatoare continue este întodeauna
infinit.
3. Repartiția unei variabile aleatoare discrete
Se numește repartiție a unei variabile aleatoare discrete enumerarea valorilor posibile ale variabilei
aleatoare și a probabilităților corespunzătoare acestora.
De obicei repartiția unei variabile aleatoare discrete se scrie sub forma unui tablou în care prima
linie contine toate valorile posibile iar a doua linie probabilitatile corespunzatoare.
𝑥1 𝑥2 … . . 𝑥𝑛 𝑥𝑖
ξ :(𝑝 𝑝2 … . . 𝑝𝑛 ) pe scurt ξ:(𝑝𝑖 ),1≤i≤n.
1

4.Operații cu variabile aleatoare discrete. Noțiunea de independență.


Prin definiție puterea de ordin k a variabilei aleatoare ξ este variabila aleatoare ξk cu repartiția

𝑥𝑘 𝑥2𝑘 … . 𝑥𝑛𝑘
𝜉 𝑘 :( 𝑖 )
𝑝1 𝑝2 … . 𝑝𝑛
Definim suma și produsul a doua variabile
𝑥1 𝑥2 … . . 𝑥𝑛 𝑦1 𝑦2 … . . 𝑦𝑛
ξ :(𝑝 𝑝2 … . . 𝑝𝑛 ) si η: ( 𝑝1′ ′ )
𝑝2′ … . . 𝑝𝑚
1

Suma:∑𝑛𝑖=1 ∑𝑚
𝑗=1 𝑝𝑖𝑗 = 1

Produsul:P(ξ= 𝑥𝑖 , 𝜂 = 𝑦𝑖 ) = 𝑃(ξ= 𝑥𝑖 )P(𝜂 = 𝑦𝑖 )


𝑝𝑖𝑗 = 𝑝𝑖 𝑝𝑗′ .

5. Repartiția binomială.
𝑛 𝑛 − 1…..𝑘……0
𝜉(𝑛) : ( ).-aceasta este repartiția binomială
𝑝𝑛 𝑛𝑝𝑛−1 𝑞 … 𝐶𝑛𝑘 𝑝𝑘 𝑞 𝑛−𝑘 … 𝑞 𝑛

7.Valoarea medie a unei variabile aleatoare discrete

7
Am văzut că repartiția unei variabile aleatoare discrete caracterizează această variabilă. În aceste
cazuri pentru caracterizarea variabilei aleatoare ne mulțumim să folosim anumite mărimi numite
valori tipice asociate variabilei aleatoare.
Valoarea medie este suficientă pentru rezolvarea multor probleme.
Prin def valoarea medie unei variabile aleatoare cu repartiția
𝑥1 𝑥2 … . 𝑥𝑛
ξ :(𝑝 𝑝2 … 𝑝𝑛 )
1

este egală cu suma produselor dintre valorile ei posibile corespunzătoare


M(ξ)=𝑥1 𝑝1 + ⋯ + 𝑥𝑛 𝑝𝑝 = ∑𝑛𝑖=1 𝑥𝑖 𝑝𝑖

Exercițiu 6: Dacă repartiția lui ξ este


7 3 5
ξ :( ), atunci
0,6 0,8 0,9
M(ξ)=7∙ 0,6 +3∙ 0,8 + 5 ∙ 0,9=11,1
Prin def
𝜉 ̅ ≈ M(ξ)
Prin urmare media aleatoare a variabilei ξ este aproximativ egală cu media aritmetică a valorilor
observate ale lui ξ.

8.Proprietățile mediei
Proprietatea 1. Media unei constante a este egală cu a։
M(a)=a.
Demonstrație. Constanta a poate fi considerată ca o variabilă aleatore discretă care ia o singură
valoare a cu probabilitatea p=1. Prin urmare
M(a)=a∙ 1=a.
Proprietatea 2. Media produsului dintre o canstantă a și o variabilă aleatoare ξ este egală
cu produsul dintre a și media lui ξ:
M(a ξ)=aM(ξ)
Demonstrație: Am vazut (ꝣ 2.4) că dacă variabila aleatoare are repartiția
𝑥1 𝑥2 … . 𝑥𝑛
ξ :(𝑝 𝑝2 … 𝑝𝑛 )
1

atunci variabila aleatoare a ξ are repartiția

8
𝑎𝑥1 𝑎𝑥2 … . 𝑎𝑥𝑛
aξ :( 𝑝 𝑝2 … 𝑝𝑛 )
1

Prin urmare
M(a ξ)=𝑎𝑥1 𝑝1 + 𝑎𝑥2 𝑝2 … + 𝑎𝑥𝑛 𝑝𝑛 =a(𝑥1 𝑝1 + 𝑥2 𝑝2 + ⋯ + 𝑥𝑛 𝑝𝑛 ) = aM(ξ)
Proprietatea 3. Media sumei a două variabile aleatoare este agală cu suma mediilor celor doua
variabile aleatoare:
M(ξ+η)=M(ξ)+M(η).
Exercitiu 7: Să se găsească media numărului de puncte obținute la aruncarea a două zaruri. Să
notăm cu ξ nr de puncte ce se obține prin aruncarea primului zar și cu η nr de puncta ce se obține
prin aruncarea celui de al doilea zar. Evident, ξ și η sînt variabile aleatoare care pot lua valorile
2,4,3,7,8 și 6 și dacă zarurile sînt omogene, ξ și η au fiecare repartiția
2 4 3 7 8 6
(1 1 1 1 1 1).
6 6 6 6 6 6

Prin urmare
1 1 1 1 1 1
M(ξ)=M(η)=2∙ 6 + 4 ∙ 6 + 3 ∙ 6 + 7 ∙ 6 + 8 ∙ 6 + 6 ∙ 6 =5

M(ξ+η)=M(ξ)+M(η)=5+5=10.

Proprietatea 4. Media produsului a două variabile aleatoare independente este egală cu


produsul mediilor celor doua variabile aleatoare.
M(ξη)=M(ξ)M(η)
Teoarema. Media variabilei aleatoare 𝜉(𝑛) cu repartiția binomiala este egală cu np.

9. Dispersia unei variabile aleatoare discrete


Este ușor să dăm exemple de variabile aleatoare care au mediile egale dar repartițiile diferite. De
exemplu variabile ξ și η cu repartițiile
−0,1 0,1 −1000 1000
ξ: ( ), η: ( )
0,5 0,5 0,5 0,5
au mediile egale
M(ξ)=-0,1∙ 0,5 + 0,1 ∙ 0,5 = 0
M(η)= -1000∙ 0,5 + 1000 ∙ 0,5 = 0

9
Însă valorile lui ξ nu diferă cu mult de media sa, pe cand valorile lui η diferă foarte mult de
media sa.
Formula dispersiei este următoarea:
𝐷2 (𝜉) = 𝑀(𝜉 2 ) − 𝑀2 (𝜉).
Disperia este diferența dintre media pătratului variabilei aleatoare și pătratul mediei variabilei
aleatoarel.

Exercitiu 8:
1 4 3
ξ :( )
0,1 0,3 0,5
și am obținut M(ξ)=2,8. Pentru a calcula disperia lui ξ să observam că repartiția lui 𝜉 2 este
1 16 9
𝜉 2 :( ), si deci
0,1 0,3 0,5
M(𝜉 2 )=1∙ 0,1 + 16 ∙ 0,3 + 9 ∙ 0,5 =9,4
𝐷2 (𝜉) = 𝑀(𝜉 2 ) − 𝑀2 (𝜉)=9,4-7,84=1,56

10. Proprietatile dispersiei


Proprietatea 1. Dispersia unei constante a este egală cu 0:
D2(a)=0.
Demonstarație: Prin def avem D2(a)=M{[a-M(a)]2}.
Folosind proprietatea 1 a mediei obținem
D2(a)=M[(a-a)2]=M(0)=0.
Proprietatea 2. Dispersia produsului dintre o constantă a și o variabilă aleatoare ξ este egală cu
produsul dintre pătratul constantei și dipersia lui ξ:
D2(aξ)=a2D2(ξ)
Demonstrație. Prin definiția dispersiei avem
D2(aξ)=M{[aξ-M(aξ)]2}.
Folosind proprietatea 2 a mediei obtinem
D2(aξ)=M{[aξ-aM(ξ)]2}=M{a2[ξ-M(ξ)]2}=a2M{[ξ-M(ξ)]2}=a2M{[ξ-M(ξ)]2}=a2D2(ξ).
Proprietatea 3. Dispersia sumei a două variabile aleatoare independente este egală cu suma
dispersiilor celor doua variabile aleatoare:
10
D2(ξ+η)=D2(ξ)+D2(η).
Teoarema: Dispersia variabilei aleatoare ξ(𝑛) cu repartiție binomiala este egală cu npq.

11. Abaterea medie pătratică


Se numește abatere medie pătratică a unei variabile aleatoare rădăcina pătrată din
dispersia variabilei aleatoare . Prin urmare, abaterea medie pătratică a variabilei aleatoare ξ este

√𝐷2 (ξ)=D(ξ)
12. Variabile aleatoare independente cu aceeași repartiție
𝜎
D(𝜂̅ )= ∙ 𝑎 ∙ 𝑚 ∙ 𝑝.
√𝑛

13. Momentele unei variabile aleatoare


În unele probleme este util să cunoaștem valorile momentelor de diferite ordine ale unei
variabile aleatoare ξ. Aceste momente sînt valori tipice ale variabilei aleatoare. Există doua feluri
de momente: momente inițiale și momente centrate.
Momentul inițial de ordinul k al variabilei aleatoare ξ este media variabilei aleatoare ξk.
𝛼 k=M(ξk).
𝛼 1=M(ξ)
𝛼 2=M(ξ2)
Folosind aceste formule obținem
D2(ξ)= 𝛼 2-𝛼 2
Momentul centrat de ordinal k al variabilei aleatoare ξ este media variabilei aleatoare [ξ-M(𝜉)]k
𝜇 k=M[(ξ-M(ξ)]k.
În particular
𝜇 1=M[(ξ-M(ξ)]=0
𝜇 2=M[(ξ-M(ξ)]2=D2(ξ).

De aici obținem următoarele formule:


𝜇 2=𝛼 2-𝛼12
Plecând de la def și folosind proprietățile mediei găsim formulele:
𝜇1 = 𝛼3 − 3𝛼1 𝛼2 + 2𝛼13

11
𝜇4 = 𝛼4 − 4𝛼3 𝛼1 + 6𝛼2 𝛼12 − 3𝛼14
14. Funcția de repartiție a unei variabile aleatoare
Am văzut că o variabila aleatoare discrete este caracterizată de repartiția ei. Acest mod de
a ne da o variabilă aleatoare nu este general, el nefiind valabil pentru variabilele aleatoare continue.
Întradevăr să consideram o variabila aleatoare ξ ale cărei valori posibile umplu un interval (a,b).
Funcția F(x) definite ca probabilitatea evenimentului (ξ<x)
F(x)=P(ξ<x),
se numește funcție de repartiție a variabilei aleatoare ξ.
O variabilă aleatoare se numește continuă dacă functia ei de repartiție F(x) este continuă.
15.Proprietățile funcției de repartiție
Proprietatea 1. Valorile funcției de repartiție aparține segmentului [0,1]:
0≤ 𝐹(𝑥) ≤ 1
Demonstrație: Această proprietate rezultă din definiția întrucât probabilitatea este un număr
negativ care nu depășește unitatea.

Proprietatea 2. Funcția de repartiție este o funcție nedescrescătoare, adică F(x2)≥F(x1) dacă


x2>x1
Proprietatea 3. Dacă valorile posibile ale variabilei aleatoare ξ aparține intervalului (a,b),
atunci:
F(x)=0 pentru x≤a,
F(x)=1 pentru x>b.
Demonstrație: Fie x1≤a. Atunci evenimentul (ξ< x1) este inposibil și prin urmare probabilitatea
sa F(x1) este nulă. Daca x2>b, evenimentul ξ<x2 este sigur și prin urmare probabilitatea sa F(x2)
este egală cu unitatea.
Consecință. Avem
lim 𝐹(𝑥) = 0, lim 𝐹(𝑥) = 1
𝑥→−∞ 𝑥→∞

16. Graficul funcției de repartiție


Proprietățile demonstrate mai înainte ne permite să descriem graficul funcției de
repartiție
Propietatea 1: Y=0, Y=1
Propietatea 2: Când x crește de la a la b , graficul are o alura crescătoare.

12
Propietatea 3: Pentru x≤a, ordonatele graficului sunt nule, iar pentru x>b, ordonatele graficului
sunt egale.
Funcția de repartiție a unei variabile discrete
3 5 2
( )
0,1 0,4 0,5
x≤2, F(x)=0 propietatea 3
2<x≤3, F(x)=0,5, unde ξ ia valoarea 2.

Fig 1 Fig 2
3<x≤5, F(x)=0,5+0,1=0,6, deoarece evenimentul ξ<x constă din aceea că ξ ia valoarea 2 sau 3.
Dca x>5, F(x)=1. Graficul lui F(x) este redat in fig 2.
17. Densitatea de probabilitate
Se numește densitate de probabilitate prima derivare ( dacă există) a funcției de repartiție
F(x):
f(x)=F’(x).
Prin definiție rezultă că f(x)≥0, ca derivată a unei funcții nedescrescătoare și ca funcția de
repartiție F(x) este o primitivă a densitătii de probabilitate f(x).
Teorema. Probabilitatea ca variabila aleatoare continua ξ să ia o valoare din intervalul
(x1, x2) este egală cu integrala densității de probabilitate pe intervalul (x1, x2):
𝑥
P(x1<ξ<x2)=∫𝑥 2 𝑓(𝑥) 𝑑𝑥.
1

19. Funcția de repartiție normală


Funcția de repartiție normală, fundamentală în teoria probabilităților și în aplicațiile ei,
este definită prin densitatea de probabilitate

13
(𝑥−𝑚)2
1 −
f(x; m, σ)=𝜎√2𝜋 𝑒 2𝜎2 , −∞ < 𝑥 < ∞

20.Alte funcții de repartiție continue clasice


Funcția de repartiție χ2. În unele probleme de statică matematică intervin sume de pătrate
devariabile aleatoare independente normale cu media 0 și abaterea medie pătratică σ. Funcția de
repartiție a unei astfel de sume se numește funcție de repartiție χ2.
𝜉12 + 𝜉22 + ⋯ 𝜉𝑛2
2. Repartiția Gama
Repartiția Gama este definită prin densitatea de probabilitate
𝑒 −𝑥 𝑥 𝑚−1
f(x)= , 0≤x<∞, m>0
Г(𝑚)

Funcția caracteristică. Avem


1 ∞ 1 ∞ (𝑖𝑡𝑥)𝑛 1 Г(𝑚+𝑛)
φ(t)=Г(𝑚) ∫0 𝑒 𝑖𝑡𝑥 𝑒 −𝑥 𝑥 𝑚−1 𝑑𝑥=Г(𝑚) ∫0 ∑∞
𝑛=0 𝑒 −𝑥 𝑥 𝑚−1 𝑑𝑥=Г(𝑚) ∑∞
𝑛=0 (𝑖𝑡)𝑛 =1+
𝑛! 𝑛!
𝑚(𝑚+1)…(𝑚+𝑛−1)
∑∞
𝑛=1 (𝑖𝑡)𝑛 =(1 − 𝑖𝑡)−𝑚
𝑛!

Teorema 1. Dacă variabilele aleatoare independente ξ1 și ξ2 aparțin respectiv claselor ϒ(m1) și


ϒ(m2), atunci suma ξ1+ ξ2 aparține clasei ϒ(m1+m2).
3.Repartitia Beta
Repartiția Beta este definită prin densitatea de probabilitate
𝑥 𝑚−1 (1−𝑥)𝑛−1
f(x)= , 0≤ 𝑥 ≤ 1 , m>0, n>0.
𝐵(𝑚,𝑛)

După forma sa ea aparține tipului 1 de curbe Pearson. Evident , f(x) este o densitate de
probabilitate întrucât
1
∫0 𝑥 𝑚−1 (1 − 𝑥)𝑛−1 𝑑𝑥 =B(m,n)

Momente. Momentul de ordine r al repartiției Beta este


1 1 𝐵(𝑟+𝑚,𝑛) 𝑚(𝑚+1) (𝑚+𝑟−1)
𝛼𝑟 = ∫ 𝑥 𝑟+𝑚−1 (1
𝐵(𝑚,𝑛) 0
− 𝑥)𝑛−1 𝑑𝑥 =
𝐵(𝑚,𝑛)
=(𝑚+𝑛)(𝑚+𝑛+1)…(𝑚+𝑛+𝑟−1).

În particular
𝑚 𝑚(𝑚+1)
𝛼1 = 𝑚+𝑛 , 𝛼2 = (𝑚+𝑛)(𝑚+𝑛+1)

Rezultă
𝑚𝑛
𝜇2 = 𝛼2 − 𝛼12 =
(𝑚 + 𝑚)2 (𝑚 + 𝑛 + 1)

14
Teorema 3. Dacă variabilele aleatoare independente ξ1 și ξ2 aparțin respectiv claselor ϒ(m) și
𝜉1
ϒ(n), atunci variabila η=𝜉 aparțin clasei 𝛽(m,n).
1 +𝜉2

4. Repartiția ϒ2
Repartiția ϒ2 este definită prin densitatea de probabilitate
𝑠 𝑥
1 −
f(x)= 𝑠
𝑠
𝑥 2−1 𝑒 2𝜎2 , 0≤x<∞
22 𝜎𝑠 Г( )
2

unde s este un număr natural dat numit numărul gradelor de libertate iar σ>0 un numar dat.
Se verifică imediat că

∫ 𝑓(𝑥) 𝑑𝑥 = 1
0

Densitatea de probabilitate aparține tipului 3 de curbe Pearson. Vom nota H(s,σ) mulțimea
tuturor variabilelor aleatoare a căror densitate de probabilitate este dată de variabila aleatoare.
1
Pentru m natural, H(2𝑚, )=ϒ(m).
√2

5. Repartiția student
Repartiția student este definită prin densitatea de probabilitate
𝑠+1 𝑠+1
Г( ) −
2 𝑥2 2
f(x)= 𝑠 (1 + ) , −∞ < 𝑥 < ∞
√𝜋𝑠 Г(2) 𝑠

unde s este un numar natural dat numit numarul gradelor de libertate

6. Repartiția Snedecor și repartiția Ffisher


Repartiția Snedecor este definită prin densitatea de probabilitate
𝑓1 𝑓 +𝑓 𝑓 𝑓
𝑓1 ( 1 2) 𝑓1
𝑓1 − 1 2
2 2 −1 2
f(x)=(𝑓 ) 𝑓 𝑓 𝑥 2 (1 + 𝑓 𝑥) , 0≤ 𝑥 ≤ ∞,
2 Г( 1 )Г( 2 ) 2
2 2

unde f1 și f2 sunt numere naturale date numite grade de libertate


Teorema. Fie ξ1 și ξ2 doua variabile aleatoare independente care aparțin respectiv
claselor H(f1, σ) si H(f2,σ). În aceste condiții variabila
𝜉1
𝑓1 𝑓𝜉
φ= =𝑓2𝜉1 𝜉2
1 2
𝑓2

aparțin clasei S(f1, f2)


15
21. Teorema limită central
Funcția de repartiție normală are importanță fundamentală în teoria probabilităților. Vom
prezenta acum circumstanțele care determină această situație.Încă de acum 200 de ani, cercetările
teoretice au detectat variabile aleatoare cu caracter de erori accidentale și care au funcții de
repartiție de diverse tipuri.
Erorile pot fii de doua feluri și anume:
-erori sistematice
-erori accidentale
Erorile statice sunt erori datorita imperfecțiunii aparatelor de măsurat, dar aceste erori pot
fi corectate.
Erorile accidentale apar datorită unui complex de împrejurimi care nu pot fi sesizabile
individual nici în timpul și după procesul de masurare.
Teorema lui A.M.LEAPUNOV. Fie ξ1, ξ2…, ξn variabile aleatoare independente
Funcția de repartiție a variabilei
𝜉1 + 𝜉2 + ⋯ 𝜉𝑛 − (𝑎1 + 𝑎2 + ⋯ 𝑎𝑛)
𝜎(𝑛)

Tinde când n→ ∞, către funcția Φ(x) a lui Laplace.


Teorema limită centrală domină întreaga teorie a erorilor . Teorema limită
centrală , legea numerelor mari pun în evidență marea eficacitate a metodelor teoriei
probabilităților și a aplicațiilor lor.

§3) Legea numerelor mari

Chiar dacă dispunem despre fiecare variabilă aleatore de informații modeste, cu greu
putem satbilii legea după care se comportă media aritmetică a unui număr suficient de mare de
variabile aleatoare.
Teoremele din cadrul studiului cu denumirea comuna de legea numerelor mari,
2.Inegalitatea lui Cebisev
Inegalitatea lui Cebisev este adevărată atât pentru variabilele aleatoare discrete
cât și pentru cele continue.

16
𝐷 2 (𝜉)
P(|𝜉 − 𝑀(𝜉)| < 𝜀) ≥ 1 − 𝜉2

Pentru practică , inegalitatea lui Cebisev are o importanță limitată deoarece da o evaluare
grosolană.

3) Teorema lui Cebisev


Teorema lui Cebisev. Daca 𝜁1, 𝜁2, …, 𝜁n sînt variabile aleatoare independente ale
căror dispersii sînt mai mici decât o constantă C, atunci oarecare ar fi numarul pozitiv 𝜀,
probabilitatea inegalității
𝜁1 + 𝜁2 + ⋯ 𝜁𝑛 𝑀(𝜁1 ) + 𝑀(𝜁2) + ⋯ 𝑀(𝜁𝑛 )
| − |<𝜀
𝑛 𝑛
Tinde către 1 dacă numarul variabilelor aleatoare tinde la infinit.
Teorema lui Cebisev explică de asemenea de ce despre calitatea unei cantități
mari dintr-un material omogen putem să ne pronunțăm la baza unei probe mici în comparație cu
întreaga cantitate. Explicația constă în aceea că proba comportă un numar de măsurători suficient
prin el însusi. În acest fel pe teorema lui Cebisev, se bazează mult utilizata metodă selectivă a
statisticii.
4. Teorema lui Bernoulli
Să presupunem că se fac n experimente independente, în fiecare experiment
probabilitatea evenimentului A fiind p.
Teorema lui Bernoulli. Dacă se fac n experimente independente, în fiecare
experiment probabilitatea evenimentului A fiind p, atunci cu o probabilitate oricât apropiată de 1
abaterea frecvenței relative de apariție a evenimentului A față de p va fi oricât de mică in valoare
absolută cu condiția ca numărul n al experimentelor să fie suficient de mare.
Dacă 𝜀 este un număr pozitiv arbitrar de mic și notăm cu 𝝂 numărul de apariții al
evenimentului A în cele n experimente atunci
𝜈
lim 𝑃 (|𝑛 − 𝑝| < 𝜀)=1
𝑛→∞

Întrucât demonstrația este foarte grea, vom arăta că teorema lui Bernoulli este un caz particular al
teoremei lui Cebisev.
Avem variabilele aleatoare:
𝛏1- numarul de apariții al evenimentului A în primul experiment ( poate fii 1 sau 0)
𝛏2- numarul de apariții al evenimentului A în al doilea experiment
……

17
𝛏n- numarul de apariții al evenimentului A în al n-lea experiment
𝜈= 𝛏1+ 𝛏2+… + 𝛏n
Fiecare dintre acestea are repartiția
1 0
( ), q=1-p
𝑝 𝑞
Conform teoremelor de la 2.8 și 2.10 avem:
M(𝛏1 )= M(𝛏2 )=…= M(𝛏n )=p
𝐷2 (𝛏1)= 𝐷2 (𝛏2)=…= 𝐷2 (𝛏n)=pq
1
Cum pq≤ 4

De aici putem aplica teorema lui Cebisev


𝜈
lim 𝑃 (|𝑛 − 𝑝| < 𝜀)=1
𝑛→∞

Se observă că teorema lui Bernoulli nu afirmă că


𝜈
lim 𝑛=p
𝑛→∞

Vrecvența relativă se va deosebi oricât de puțin de probabilitatea p atunci când n este suficient de
mare. Frecvența relativă tinde în probabilitate către p.
Teorema lui Bernoulli explică stabilitatea frecvenței relative pentru un număr mare de
experimente.

§4) Vectori aleatori bidimensionali


1.Variabile aleatoare vectoriale
Până acum am considerat variabile aleatoare ale căror valori posibile sînt numere. Aceste
variabile aleatoare se numesc unidimensionale. În afară de variabilele aleatoare unidimensionale
se studiază și variabilele aleatoare ale căror valori posibile sînt sisteme de câte n numere.
Notăm un vector aleator bidimensional cu (𝛏,η). Fiecare din marimile 𝛏 și η se
numesc componentele vectorului aleator; luate separate 𝛏 și η sînt variabile aleatoare
unidimensionale.

2. Repartiția unui vector aleator bidimensional discret

18
Prin repartiția unui vector aleator bidimensional discret vom întelege enumerarea
valorilor posibile ale vectorului adică a perechilor de numere reale (𝑥𝑖 , 𝑦𝑖 ) și a probabilităților 𝑝𝑖𝑗
corespunzătoare 1≤ 𝑖 ≤ 𝑛, 1≤ 𝑗 ≤ 𝑚.
Întrucât evenimentul ( 𝛏=𝑥𝑖 , η=𝑦𝑗 ) 1≤ 𝑖 ≤ 𝑛, 1 ≤ 𝑗 ≤ 𝑚 formeză un sistem
complet de evenimente, suma tuturor probabilităților din căsuțele tabloului este egală cu 1.
Întradevăr evenimentele
( 𝛏=𝑥1 , η=𝑦1 ), ( 𝛏=𝑥1 , η=𝑦2 ), …, ( 𝛏=𝑥1 , η=𝑦𝑚 )
Sunt incompatibile și deci probabilitatea p1 ca 𝛏 să ia valoarea x1 este egală cu
P1=P11+P12+…+P1m
Vedem astfel că probabilitatea ca 𝛏 să ia valoarea x1 este egală cu suma probabilităților din
coloana x1.

3.Funcția de repartiție a unui vector aleator bidimensional


Se consideră un vector aleator bidimensional (𝛏,η). Fie x, y o pereche de numere
reale . Notăm cu F(x,y) probabilitatea evenimentului care constă în aceea că 𝛏 ia o valoare mai
mică decât x iar η ia o valoare mai mică decât y.
Funcția F(x,y) definită ca probabilitatea evenimentului (𝛏<x, η<y):
F(x,y)=P(𝛏<x, η<y), se numeste funcția de repartiție a vectorului aleator bidimensional (𝛏,η).
Proprietațile funcției de repartiție F(x,y)
Proprietatea 1. Valorile funcției de repartiție F(x,y) aparțin segmentului [0,1]:
0≤ 𝐹(𝑥, 𝑦) ≤ 1.
Proprietatea 2. Funcția de repartiție F(x,y) este o funcție nedescrescătoare în raport cu fiecare
argument, adică
F(x2,y)≥F(x1,y) dacă x2>x1
F(x,y2)≥F(x,y1) dacă y2>y1
Proprietatea 3. Avem
lim 𝐹(𝑥, 𝑦) = 0, lim 𝐹(𝑥, 𝑦) = 0,
𝑥→−∞ 𝑦→−∞

lim 𝐹(𝑥, 𝑦) = 0
𝑥→−∞
lim 𝐹(𝑥, 𝑦) = 1
𝑥→∞
𝑦→−∞ 𝑦→∞

Proprietatea 4. Funcția de repartiție a variabilei 𝛏 este egală cu

19
𝐹1 (𝑥) = lim 𝐹(𝑥, 𝑦)
𝑦→∞

Funcția de repartiție a variabilei η este egală cu


𝐹2 (𝑦) = lim 𝐹(𝑥, 𝑦)
𝑥→∞

4.Densitatea de probabilitate bidimensională


Se numește densitate de probabilitate bidimensional a doua derivate parțială
mixtă ∝ funcție de repartiție F(x,y).
𝜕2 𝐹(𝑥,𝑦)
F(x,y)= 𝜕𝑥𝜕𝑦

Proprietățile densitatii de probabilitate bidimensionale sînt analoge cu cele ale densității de


probabilitate unidimensionale:
+∞ +∞
f(x,y)≥0, ∫−∞ . ∫−∞ 𝑓(𝑥, 𝑦) 𝑑𝑥 𝑑𝑦 = 1

Cunoscând funcția f(x,y) putem să determinăm F(x,y) și anume:


𝑥 𝑦
F(x,y)= ∫−∞. ∫−∞ 𝑓(𝑥, 𝑦) 𝑑𝑥 𝑑𝑦.

Teoremă. Probabilitatea ca punctul de coordonare 𝛏 și η să se găseasca într-un domeniu plan D


este egală cu integrala dublă a densității de probabilitate bidimensional luate pe domeniul D:
.
P[(ξ,η)∈ D)]=∬𝐷 𝑓(𝑥, 𝑦) 𝑑𝑥 𝑑𝑦.

Dacă cunoaștem densitatea de probabilitate bidimensionala f(x,y) a vectorului


aleator bidimensional (ξ,η) putem găsii densitățile de probabilitate ale componentelor ξ și η.
Densitatea de probabilitate a lui ξ este:
+∞
𝐹1 (𝑥) = 𝑓1 (𝑥) = ∫ 𝑓(𝑥, 𝑦) 𝑑𝑦.
−∞

Densitatea de probabilitate a lui η este:


+∞
𝑓2 (𝑦) = ∫ 𝑓(𝑥, 𝑦) 𝑑𝑥.
−∞

Densitatea de probabilitate a unei componenmte este egală cu integrala de la −∞ 𝑙𝑎 + ∞ a


densitati de probabilitate bidimensionale în raport cu variabila corespunzătoare.

2.3. Variabile aleatoare vectoriale


Fie (𝛺,K,P) un câmp borelian de probabilitate.
Definitia 2.3.1. Numim variabila aleatoare vectorială aplicația:

20
̅̅̅̅̅
X=(X1,X2, …,Xn ):Ω→ℝn, ale cărei componente Xi :Ω→ℝ, i=1, 𝑛, sunt variabile aleatoare reale.
Dacă X=(X1,X2, …,Xn ):Ω→ℝn este o variabila aleatoare și x1,x2, …,xn →ℝn ,
atunci
{𝜔 ⎸X1(𝜔)<x1,…,xn(𝜔)<xn}=⋂𝑛𝑖=1{𝜔⎸𝑋𝑖 (𝜔)<𝑥𝑖 }, este un eveniment din k și se poate exprima și
sub forma
{𝜔 ⎸X1(𝜔)<x1,…,xn(𝜔)<xn}=⋂𝑛𝑖=1 𝑋𝑖−1 (−∞, 𝑥𝑖 ) adică intersecția preimaginilor prin Xi a
̅̅̅̅̅
semidreptelor (−∞, 𝑥𝑖 ), i=1, 𝑛
Definiția 2.3.1. Dacă F:ℝn→ℝ definite prin:
F(x1,…,xn)=P(X1<x1,…, Xn<xn), pentru orice (x1,….,xn)𝜖ℝn se numește funcție de repartiție a
variabilei aleatoare X=(X1,…,Xn ):Ω→ ℝn
Propozitia 2.3.1. Dacă F:ℝn→ℝ este funcție de repartiție a vectorului aleator X:Ω→ℝ atunci:
i)𝑥lim
→∞
𝐹(𝑥1 , … , 𝑥𝑛 ) = 1
𝑖
̅̅̅̅̅
i=1,𝑛

ii) lim 𝐹(𝑥1 , … , 𝑥𝑛 ) = 0, pentru orice i = ̅̅̅̅̅


1, 𝑛;
𝑥𝑖 →−∞

iii)Feste crescatoare în fiecare argument ;


iv)F este continua la stanga în fiecare argument.

2.4. Repartiții marginale


Fie (Ω,k,P) un camp borelian de probabilitate și X:Ω→ℝn o variabila aleatoare vectoriala cu
funcția de repartiție:
F(x1,…,xn)=P(X1<x1,…, Xn<xn) pentru orice x=(x1,….,xn)𝜖ℝn
Pentru orice i𝜖{1,2,..,n), Xi :Ω∈ℝ este o variabila reala numită componentă a
vectorului aleator X=(X1,…,Xn).
Notăm Fi(xi), xi𝜖ℝ funcția de repartiție a componentei Xi
Fi(xi)=P(Xi<xi), pentru orice i = ̅̅̅̅̅
1, 𝑛.
Propoziția 2.4.1. Are loc egalitatea:
Fi(xi)=𝑥lim
→∞
𝐹(𝑥1 , … , 𝑥𝑛 ), pentru orice xi𝜖ℝ
𝑗
̅̅̅̅̅
j=1,𝑛
𝑗≠𝑖

Propoziția 2.4.2. Are loc egalitatea

21
𝐹𝑖1 …𝑖𝑛 (𝑥𝑖1 , . . , 𝑥𝑖𝑛 ) = lim 𝐹(𝑥𝑖1 , … , 𝑥𝑖𝑛 )
𝑥𝑗 →∞
𝑗∉{𝑖1 ,..,𝑖𝑛

Propoziția 2.4.3. Dacă f:ℝn→ℝ este densitatea de repartiție a vectorului aleator X=(X1,..,Xn)
atunci densitatea marginala în raport cu componenta Xi notată fi(xi), xi𝜖ℝ este:
. 𝑛

𝑓𝑖 (𝑥𝑖 ) = ∫ ∫ 𝑓(𝑥1 , . . , 𝑥𝑛 ) ∙ ∏ 𝑑𝑥𝑗


ℝ𝑛−1 𝑗=1
𝑗≠𝑖

Propoziția 2.4.4. Probabilitatile 𝑝𝑖𝑗 ,i𝜖I, j𝜖J verifică proprietățile:

i) 𝑝𝑖𝑗 ≥0 oricare ar fi (i,j) ∈ I×J;


𝑚
ii) ∑ ∑𝑛𝑗=. 𝜌𝑖𝑗= 1
𝑖=1

2.5. Variabile aleatoare independente


̅̅̅̅̅
Fie (Ω,K, P) un câmp borelian de probabilitate și Xi :Ω→ℝ, i=1, 𝑛, n≥2
variabile aleatore.
̅̅̅̅̅
Definiția 2.5.1. Spunem că variabilele aleatoare Xi , i=1, 𝑛 , n≥2 sunt independente dacă
evenimentele
̅̅̅̅̅
Ai={𝜔|𝑥𝑖 (𝜔) < 𝑥𝑖 }, sunt independente pentru orice 𝑥i∈ ℝ, i=1, 𝑛
̅̅̅̅̅
Propoziția 2.5.1. Variabilele aleatoare Xi, i=1, 𝑛, n≥2 sunt independente dacă și numai dacă
funcția de repartiție a vectorului aleator X=(X1,....,Xn) este produsul funcțiilor de repartiție
marginale, adică
F=(𝑥1 , … . , 𝑥𝑛 )=∏𝑛𝑖=1 𝐹𝑖 (𝑥𝑖 ), pentru orice (𝑥1 , … . , 𝑥𝑛 )∈ ℝ𝑛 (***)
̅̅̅̅̅
Propoziția 2.5.2. Variabile aleatoare Xi, i=1, 𝑛, n≥2 sunt independente dacă și numai dacă
funcția de repartiție a vectorului aleator X=(X1,....,Xn) este produsul densităților de repartiție
marginale
f=(𝑥1 , … . , 𝑥𝑛 )= ∏𝑛𝑖=1 𝑓𝑖 (𝑥𝑖 ), ∀ (𝑥1 , … . , 𝑥𝑛 ) ∈ ℝ𝑛
(****)
̅̅̅̅̅
Demonstrație. Dacă Xi, i=1, 𝑛 sunt independente, din egalitatea (****) obținem
𝜕𝑛 F(𝑥1 ,….,𝑥𝑛 ) 𝜕𝑛 ∏𝑛
𝑖=1 𝐹𝑖 (𝑥𝑖 )
f=(𝑥1 , … . , 𝑥𝑛 )= 𝜕𝑋1 …..𝜕𝑋𝑛
= 𝜕𝑋1 …..𝜕𝑋𝑛
=∏𝑛𝑖=1 𝑓𝑖 (𝑥𝑖 ), pentru orice (𝑥1 , … . , 𝑥𝑛 ) ∈ ℝ𝑛

22
Dacă are loc (***) atunci
𝑋 𝑥 𝑥
F=(𝑥1 , … . , 𝑥𝑛 )=∫−∞ 1 𝑛
… ∫−∞ f(𝑦1 , … . , 𝑦𝑛 ) 𝑑𝑦1 ∙ … ∙ 𝑑𝑦𝑛 = ∏𝑛𝑖=1 ∫−∞
𝑖
. 𝑓𝑖 (𝑦𝑖 )=∏𝑛𝑖=1 𝐹𝑖 (𝑥𝑖 ) pentru
orice (𝑥1 , … . , 𝑥𝑛 ) ∈ ℝ𝑛 și deci variabilele aleatoare 𝑋1 , . , 𝑋𝑛 sunt independente ( propozitia 2.5.2)
Fie I o familie arbitrară de indici (Ω,K, P) un camp borelian de probabilitate și variabile
aleatoare Xi :Ω→ℝ, i ∈ I
Definiția 2.5.3. Spunem că variabilele aleatoare (Xi, i ∈ I) sunt mutual independente dacă, pentru
orice i,j∈ I, i≠j, variabilele aleatoare Xi și Xj sunt independente.

2.6. Operații cu variabile aleatoare

Fie (Ω,K, P) un camp borelian de probabilitate.


Propoziția 2.6.1. Dacă X:Ω→ℝ este o variabilă aleatoare atunci:
i. a∙X, a∈ ℝ;
ii. |𝑋|;
iii. 𝑋k, k∈ ℕ∗ .
1
iv. , X≠ 0;
𝑋
v. √𝑋, X≥0
sunt variabile aleatoare
Demonstrație.
i) Pentru a=0, y=a∙ 𝑥|𝑎=0=0 oricare ar fi 𝜔 ∈ 𝛺 oricare ar fi 𝜔. Aplicația constă pe Ω
este o variabilă aleatoare. Pentru a≠ 0 și x∈ ℝ arbitrar avem
𝑥
{𝜔| 𝑋(𝜔) > } , 𝑎 < 0
{𝜔| 𝑎 ∙ 𝑋(𝜔) < 𝑥} = { 𝑎
𝑥
{𝜔| 𝑋(𝜔) < } , 𝑎 > 0
𝑎
∅, 𝑥 ≤ 0
ii) Avem {𝜔| |𝑋(𝜔)| < 𝑥}={ , evenimentele din
{𝜔| − 𝑥 < 𝑋(𝜔) < 𝑥}, 𝑥 > 0
membrul al doilea fiind din k rezultă că |𝑋| este variabilă aleatoare.

iii) Distingem două cazuri după cum k este par și impar. Pentru k=2p, p∈ ℕ∗ avem:

∅, 𝑥 ≤ 0
{𝜔| 𝑋 𝑘 (𝜔) < 𝑥}={ 𝑘 𝑘
{𝜔| − √𝑥 < 𝑋(𝜔) < √𝑥 }, 𝑥 > 0

23
Eveneimentele din membrul al doilea fiind din k rezultă că pentru, pentru k par, 𝑋 𝑘 este variabilă
aleatoare. Pentru k=2p+1 , p∈ ℕ∗ mulțimea:

{𝜔| 𝑋 𝑘 (𝜔) < 𝑥} = {𝜔| 𝑋(𝜔) < 𝑘√𝑥 }

iv) Avem
∅, 𝑥 ≤ 0
{𝜔| √𝑋(𝜔) < 𝑥}={
{𝜔| 𝑋(𝜔) < 𝑥 2 }, 𝑥 > 0
Lema 2.6.1. Dacă X și Y sunt două variabile aleatoare definite pe același câmp borelian de
probabilitate (Ω,K, P), atunci pentru orice a∈ ℝ mulțimile:
i) {𝜔| 𝑋(𝜔) < 𝑌(𝜔) + 𝑎}
ii) {𝜔| 𝑋(𝜔) ≤ 𝑌(𝜔) + 𝑎}
iii) {𝜔| 𝑋(𝜔) = 𝑌(𝜔) + 𝑎}
Sunt evenimente din K

Propoziția 2.6.2. Dacă X și Y sunt variabile aleatoare, definite pe același câmp de probabilitate
(Ω,K, P), atunci:
i) X-Y;
ii) X+Y;
iii) X∙Y;
𝑋
iv) , Y≠0;
𝑌
v) 𝑚𝑎𝑥{𝑋, 𝑌};
vi) 𝑚𝑖𝑛{𝑋, 𝑌}
Sunt variabile aleatoare
Demonstrație.
i. Vom ține cont de formulele de mai sus de la Lema. Pentru orice a∈ ℝ:
{𝜔| 𝑋(𝜔) − 𝑌(𝜔) < 𝑎}= {𝜔| 𝑋(𝜔) < 𝑌(𝜔) + 𝑎} ∈K și deci X-Y este variabilă
aleatoare
ii. Y fiind variabilă aleatoare, (-1)Y=-Y este variabilă aleatoare. Aplicând i) rezultă că
X+Y=X-(-1)Y este variabilă aleatoare
iii) Conform punctelor precedente X-Y și X+Y sunt variabile aleatoare. Aplicând 2.6.1
iii) rezultă că (X-Y)2 și (X+Y)2 sunt variabile aleatoare și deci diferența lor (X+Y)2-
(X-Y)2 este variabilă aleatoare
1
Aplicând 2.6.1 i) rezultă că [(𝑋 + 𝑌)2 − (𝑋 − 𝑌)2 ]=XY
4
1
iv) Variabila aleatoare Y fiind diferită de 0 rezultă că 𝑌 este variabilă aleatoare. Din
1 𝑋
rezultatul precedent rezultă X∙ 𝑌 = 𝑌 este variabilă aleatoare.
v) Pentru orice x∈ ℝ avem

24
{𝜔|𝑚𝑎𝑥{𝑋(𝜔), 𝑌(𝜔)} < 𝑥}}={𝜔| 𝑋(𝜔) < 𝑌(𝜔) < 𝑥} = {𝜔| 𝑋(𝜔) < 𝑥} ∩ {𝜔| 𝑌(𝜔) < 𝑥} ∈K

De unde rezultă că afirmația v) este adevărată.


i) Avem:
{𝜔|min {𝑋(𝜔), 𝑌(𝜔)} ≥ 𝑥} = {𝜔| 𝑋(𝜔) ≥ 𝑥, 𝑌(𝜔) ≥ 𝑥} ∈K
𝑝𝑒𝑛𝑡𝑟𝑢 𝑜𝑟𝑖𝑐𝑒 𝑥 ∈ ℝ și deci min {X,Y} este variabilă aleatoare.

2.7. Funcția de variabile aleatoare

Fie (𝛺, 𝑘, 𝑃) un câmp borelian de probabilitate, 𝑥: 𝛺 → ℝ, o variabila aleatoare 𝑥(𝛺) =


𝐼 ⊂ ℝ. Fie φ: 𝐼 → ℝ i aplicația φ 𝑋: 𝛺 → ℝ

Propoziția 2.7.1. Dacă funcția este continuă și strict crescătoare pe I atunci aplicația (2.7.1) este
o variabilă aleatoare și, pentru orice y , are loc egalitatea

𝐹𝜑°𝑋 (𝑦) = 𝐹𝑋 (𝜑 −1 (𝑦))

Demonstrație

Fie Y𝜖ℝ. Deoarece φ este continuă și strict crescătoare pe I avem


:
Prin urmare Ω este o variabilă aleatoare.
Propoziția 2.7.2. Dacă funcția este continuă și strict descrescătoare pe I, atunci aplicația
2.7.1. este o variabilă aleatoare și, pentru y , are loc egalitatea
)

Propoziția 2.7.3. Fie 𝑥: 𝛺 → ℝ o variabilă aleatoare 𝑥(𝛺) = 𝐼 ș𝑖 𝑓𝑖𝑒


𝐷𝑎𝑐ă:

1) Fx este derivabilă cu derivata continuă pe Int I


2) este derivabilă cu derivata conținută și pozitivă pe Int I și astfel densitatea de repartiție a

variabilei aleatoare Ω este data de:

Propoziția 2.7.4 Fie 𝑥: 𝛺 → ℝ o variabilă aleatoare 𝑥(𝛺) = 𝐼 ș𝑖 𝑓𝑖𝑒


𝐷𝑎𝑐ă:

1) Fx este derivabilă cu derivata continuă pe Int I


2) este derivabilă cu derivata conținută și pozitivă pe Int I și astfel densitatea de repartiție a

variabilei aleatoare Ω este data de:

25
Corolar 2.7.1. Fie 𝑥: 𝛺 → ℝ o variabilă aleatoare 𝑥(𝛺) = 𝐼 ș𝑖 𝑓𝑖𝑒
𝐷𝑎𝑐ă:
1. Funcția de repartiție Fx este derivabilă cu derivată continuă pe Int I
2. este derivabilă cu derivata continuă pe Int I
3. este strict monotonă pe I, atunci densitatea de repartiție a variabilei aleatoare

Ω este dată de:


Propoziția 2.7.5. se împarte în două puncte și anume :
i) Dacă 𝜑 este o transformare regulată și bijectivă de la D la ∆ atunci Ω este o
variabilă aleatoare
ii) Dacă este densitatea de repartiție a vectorului aleator X
atunci densitatea de probabilitate a vectorului aleator , notată , verifică egalitatea:

Propoziția 2.7.6. Fie X=(X1,...,Xn):Ω→ , având densitatea de repartiție

Dacă funcția satisface condițiile:


1. h are derivate parțiale de ordinul întai continue pe D
2. atunci

Ω este o variabilă aleatoare cu densitatea de repartiție

∏𝑛𝑖=1 𝑑𝑥𝑖
𝑖≠𝑗

Propoziția 2.8.1. Aplicația (𝑋|𝐵): 𝐵 → ℝ, definită de (2.8.1) este o variabilă aleatoare


definită pe câmpul borelian de probabilitate (𝐵, 𝑘𝐵 , 𝑃𝐵 )

Demonstrație. Fie 𝑥𝜖ℝ si 𝐷𝑥 = {𝜔𝜖𝐵|(𝑥|𝐵)(𝜔) < 𝑥}


Din (2.8.1) rezultă:

𝐷𝑋 = {𝜔𝜖𝛺|(𝑋)(𝜔) < 𝑥, 𝜔 ∈ 𝐵} = {𝜔𝜖𝛺|(𝑋)(𝜔) < 𝑥} ∩ 𝐵


Cum

AX= {ωϵΩ|(X)(ω) < x}ϵ𝐊, de aici rezultă urmatoarea afirmație și anume


26
DX=AX∩ 𝐵 ∈ 𝑲𝐵 , pentru orice 𝑥𝜖ℝ

Prin urmare , aplicația (𝑋|𝐵): 𝐵 → ℝ, este o variabilă aleatoare definită pe câmpul de


probabilitate (𝐵, 𝑲𝐵 , 𝑃𝐵 ). Notăm 𝐹𝑥|𝐵 (𝑥), 𝑥𝜖ℝ, funcția de repartiție a variabilei aleatoare 𝑋|𝐵
definită pe câmpul de probabilitate (𝐵, 𝑲𝐵 , 𝑃𝐵 ):

𝐹𝑥|𝐵 (𝑥) = 𝑃𝐵 {(𝑥|𝐵)(𝜔) < 𝑥}

Propoziția 2.8.2. Pentru orice 𝑥𝜖ℝ are loc egalitatea:


𝑃[((𝑋)(𝜔)<𝑥)∩𝐵]
𝐹𝑥|𝐵 (𝑥)= 𝑃(𝐵)

Propoziția 2.8.3. Dacă vectorul aleator (X,Y) are densitatea de repartiție , notată fx,y(x,y),
(x,y)∈ (𝑋, 𝑌)(𝛺)=I× 𝐽 ⊂ ℝ2 si B={𝜔|𝑦(𝜔)𝜖[𝑦 ⋅ 𝑦 + 𝑑𝑦]} atunci funcția de repartiție a variabilei

aleatoare X conditionata de B, notată Fx,y(x,y)=

Iar densitatea de repartiție , notată 𝐹𝑋|𝑌 (𝑥|𝑦), este dată de:


𝑓𝑋|𝑌 (𝑥|𝑦)
𝑓𝑋|𝑌 (𝑥|𝑦)= , 𝑥 ∈ 𝐼, 𝑌 ∈ 𝐼𝑛𝑡 𝐽
𝑓𝑌 (𝑦)

Demonstrație
P(X(ω) < x, Y(ω) ∈ [y, y + dy))
FX⎸Y (x⎸y) =
P(Y(ω) ∈ [y, y + dy))
Deoarece P(Y(ω) ∈ [y, y + dy))=𝑓𝑦 (𝑦)𝑑𝑦 si
𝑥
P(X(𝜔) < 𝑥, 𝑌(𝜔) ∈ [𝑦, 𝑦 + 𝑑𝑦)) = ∫−∞ 𝑃(𝑋(𝜔) ∈ [𝑢, 𝑢 + 𝑑𝑢), 𝑌(𝜔) ∈ [𝑦, 𝑦 + 𝑑𝑦)) ∙ 𝑑𝑢 =
𝑥 𝑥
∫−∞ 𝑓𝑋,𝑌 (𝑢, 𝑦) ∙ 𝑑𝑢 ∙ 𝑑𝑦 = [∫−∞ 𝑓𝑋,𝑌 (𝑢, 𝑦) ∙ 𝑑𝑢] ∙ 𝑑𝑦

-se obține (2.8.11)i si astfel derivând in raport cu x in ambii membrii ai egalități (2.8.11) se
obține (2.8.11) ii.
a
Propoziția 2.8.4. Dacă vectorul aleator (X,Y) are densitatea de repartiție
𝑓𝑥,𝑦 (𝑥, 𝑦), (𝑥, 𝑦) ∈ (𝑋, 𝑌)(𝛺) = 𝐼 × 𝐽 si B={𝜔|X(𝜔) ∈ [𝑥, 𝑥 + 𝑑𝑥)}, atunci funcția de repartiție a
variabilei aleatoare Y condiționat de B notata 𝐹𝑌|𝑋 (𝑥|𝑦) este data de ∶
𝑥
∫ 𝑓𝑋,𝑌 (𝑥, 𝑣)𝑑𝑣
𝐹𝑌|𝑋 (𝑥|𝑦) = −∞ , 𝑦 ∈ ℝ, 𝑥 ∈ Int I
𝑓𝑋 (𝑥)
Iar densitatea de repartiție , notată 𝑓𝑌|𝑋 (𝑥|𝑦), este data de ∶

27
𝑓𝑌|𝑋 (𝑥|𝑦)
𝑓𝑌|𝑋 (𝑥|𝑦) = , 𝑦 ∈ 𝐽, 𝑥 ∈ Int I
𝑓𝑋 (𝑥)
Demonstrație. Se procedează ca la propoziția 2.8.3.
Definiția 3.1.1. Numim media varibilei aleatore X, notată M(X), numarul :
i) M(X)=∑𝑛𝑖=1 𝑥𝑖 ∙ 𝑃(𝑋 = 𝑥𝑖 );
.
ii) M(X)=∫ℝ 𝑥 ∙ 𝑓(𝑥) ∙ 𝑑𝑥

După cum variabila aleatoare X este discrete i) sau continua ii)

Să consideram cum variabila aleatoare vectoriala X=(X1,…,Xn):Ω→ ℝn și funcția


𝜑: 𝐷 = 𝑋(𝛺) → ℝ care satisface urmatoarele condiții și anume:
1) 𝜑 admite derivate parțiale de ordinul întai continue pe D;
2) Aplicația parțială 𝜑𝑗 (𝑥𝑗 ) are un numar finit de intervale de monotonie

Astfel Y=φ(X1,…,Xn) care este o variabilă aleatoare


Propoziția 3.1.1. Media variabilei aleatoare Y=φ(X1,…,Xn) este:
M(Y)=∑𝑖1, … , ∑𝑖𝑛 𝜑(𝑥𝑖1 , … , 𝑥𝑖𝑛 ) ∙ 𝑃(𝑋1 = (𝑥𝑖1 , … , 𝑥𝑛 = 𝑥𝑖𝑛 )

Daca variabila aleatoare X este discrete si:


.
M(Y)∫ℝ𝑛 … ∫ 𝜑(𝑥1 … 𝑥𝑛 ) ∙ 𝑓( 𝑥1 … 𝑥𝑛 ) ∙ 𝑑𝑥𝑖 ∙ 𝑑𝑥𝑛 daca variabila aleatoare X este continua cu
densitatea de repartitie f(x), x∈ℝn

Propoziția 3.1.2. Proprietățile mediei sunt:


i) Dăcă 𝑋(𝜔) = 𝑐, oricare ar fi 𝜔𝜖𝛺 atunci M(X)=c;
ii) Dacă X este o variabilă aleatoare și a∈ ℝ, atunci M(a∙X)=a∙M(X);
iii) Dacă X și Y sunt variabile aleatoare definite pe același câmp de probabilitate atunci
M(X+Y)=M(X)+M(Y);
iv) Dacă X și Y sunt variabile aleatoare independente definite pe același camp de
probabilitate atunci M(X∙Y)=M(X)∙M(Y)

3.2.1. Momente inițiale


Definiția 3.2.1. Numim moment inițial de ordinal k al variabilei aleatoare X numarul:
.
𝑚𝑘 = ∫ℝ 𝑥 𝑘 ∙ 𝑑𝐹(𝑥), 𝑘 ∈ ℕ*, dacă integrala Stieltjes din membrul al doilea este convergentă

28
Din această definiție rezultă că momentul inițial de ordinul k (k∈ ℕ∗ ) al variabilei
aleatoare X este media variabilei aleatoare 𝜑(𝑋)=𝑋 𝑘
.
Mk=M(Xk)=∫ℝ x k ∙ dF(x) , in care M(X k ) se exprimă sub una din formele:
n

∑ xjk ∙ P(X = xi ), daca X este discreta


𝑀(𝑋 𝑘 ) i=1
.
∫ x k ∙ f(x) ∙ dx, daca X este continua
{ ℝ

Definiția 3.2.2. Numim moment inițial absolut de ordinal k media variabilei aleatoare
k
|X |, notat αk .
.
Prin urmare αk = 𝑀(|𝑋 𝑘 |) = ∫ℝ|𝑥 𝑘 | ∙ 𝑑𝐹(𝑥) , dacă integrala Stieltjes din membrul al doilea este
convergentă.
Propoziția 3.2.1. Dacă există 𝑀(|𝑋 𝑘 |), atunci exista și M(Xk) și are loc inegalitatea
|𝑀(𝑋 𝑘 | ≤ 𝑀(|𝑋 𝑘 |)
.
Demonstrație. Din ipoteza rezultă că integrala ∫ℝ|x k | ∙ dF(x)este convergenta . Din
. .
inegalitatea |∫ℝ 𝑥 𝑘 ∙ 𝑑𝐹(𝑥)| ≤ ∫ℝ|𝑋 𝑘 | ∙ 𝑑𝐹(𝑥)

Rezultă existența momentului inițial de ordinul k al variabilei aleatoare X precum și inegalitatea


din enunț.
3.3. Momente centrate
.
Fie X:Ω→ ℝ o variabila aleatoare cu funcția de repartiție F(x), x∈ ℝ și cu media m=∫ℝ 𝑥 ∙ 𝑑𝐹(𝑥)

Finite
Definiția 3.3.1. Variabila aleatoare Y:Ω→ ℝ definite prin Y(𝜔) = 𝑋(𝜔) − 𝑚, 𝜔 ∈ 𝛺,
care se numește abatere față de medie
Definiția 3.3.2. Numim moment centrat de ordinal k al variabilei aleatoare X , notat
.
𝜇𝑘 (𝑋) = 𝑀⌊(𝑋 − 𝑚)𝑘 ⌋ = ∫ℝ(𝑥 − 𝑚)𝑘 ∙ 𝑑𝐹(𝑥)

Propoziția 3.3.1. Momentul centrat de ordinal unu este egal cu zero.


Demonstrație. Avem 𝜇1 (𝑋) = 𝑀(𝑋 − 𝑚) = 𝑀(𝑋) − 𝑀(𝑚) = 𝑚 − 𝑚 = 0
Propoziția 3.3.2. Dacă variabila aleatoare X:Ω→ ℝ admite momente initiale de ordinul s,
̅̅̅̅̅
s=1, 𝑘 atunci are loc egalitatea 𝜇𝑘 (𝑋) = ∑𝑘𝑠=0(−1)𝑠 ∙ 𝐶𝑘𝑠 ∙ 𝑚𝑘−𝑠 ∙ 𝑚 𝑠 , 𝑢𝑛𝑑𝑒 𝑚 = 𝑀(𝑋),

𝑚𝑠 = 𝑀(𝑋 𝑠 ), 𝑠 = ̅̅̅̅̅
1, 𝑘
Demonstrație

29
𝑘 𝑘

𝜇𝑘 (𝑋) = 𝑀[(𝑋 − 𝑚)𝑘 ] = 𝑀 [∑(−1)𝑠 ∙ 𝐶𝑘𝑠 ∙ 𝑋 𝑘−𝑠 ∙ 𝑚 𝑠 ] = ∑(−1)𝑠 ∙ 𝐶𝑘𝑠 ∙ 𝑀(𝑋 𝑘−𝑠 ) ∙ 𝑚 𝑠
𝑠=0 𝑠=0

3.4.1. Dispersia unei variabile aleatoare


Definiția 3.4.1. Momentul centrat de ordinal doi al variabilei aleatoare X poartă numele de
dispersie , notat D2(X). Conform acestei definiții dispersia variabilei aleatoare X este:
.
D2(X)=∫ℝ(𝑥 − 𝑚)2 ∙ 𝑑𝐹(𝑥)

Sau echivalent D2(X)=M⌊(𝑋 − 𝑚)2 ⌋


Din proprietățile mediei se obține egalitatea
D2(X)=m2-m2
Definiția 3.4.2. Numim abatere medie patratică a variabilei aleatoare X, notată 𝜎𝑥 sau simplu 𝜎,
numărul:

𝜎𝑥 = √𝐷2 (𝑋)
Definiția 3.4.3. Numim normală orice variabilă aleatoare cu media egală cu zero și dispersia
egală cu 1
Dacă X este o variabilă aleatoare cu media și dispersia finite, atunci variabila aleatoare:
𝑋(𝜔)−𝑚
Z(Ω)= , 𝜔 ∈ 𝛺 este o variabila aleatoare normala in sensul definitiei 3.4.3.
√𝐷 2 (𝑋)

1
Într-adevar M(Z)= ∙ 𝑀(𝑋 − 𝑚) = 0 si
√𝐷 2 (𝑋)

1 1
𝐷2 (𝑋) = 𝑀(𝑍 2 ) = ∙ 𝑀[(𝑋 − 𝑚)2 ] = ∙ 𝐷2 (𝑋) = 1
𝐷2 (𝑋) 𝐷2 (𝑋)
Propoziția 3.4.1. Proprietățile dispersiei sunt:
i) Dacă X( )=c, 𝜔 ∈ 𝛺 atunci 𝐷2 (𝑋) = 0
ii) Dacă X este o variabilă aleatoare cu dispersia 𝐷2 (𝑋) finite si a∈ ℝ atunci
𝐷2 (𝑎 ∙ 𝑋) = 𝑎2 ∙ 𝐷2 (𝑋);
iii) Dacă X și Y sunt variabile aleatoare independente definite pe același câmp de
probabilitate atunci 𝐷2 (𝑋 ± 𝑌) = 𝐷2 (𝑋) + 𝐷2 (𝑌)
Propoziția 3.4.2. Dacă densitatea de repartiție f(x), x∈ ℝ a variabilei aleatoare X este simetrică
față de x=m atunci momentele centrate de ordin impar sunt nule.

4.1. Funcția caracteristică

30
Definiția 4.1.1. Aplicația 𝜑: ℝ → ℂ, definite prin:

𝜑(𝑡) = 𝑀(𝑒 𝑖⋅𝑡⋅𝑥 ) = ∫ℝ 𝑒 𝑖⋅𝑡⋅𝑥 ⋅ 𝑑𝐹 (𝑥), se numește funcție caracteristică a variabilei aleatoare X.

Din proprietățile integralei Stieltjes rezultă:


i) 𝜑(𝑡) = ∑𝑘∈𝑖̇ 𝑒 𝑖⋅𝑡⋅𝑥𝑘 ⋅ 𝑝(𝑋 = 𝑥𝑘 ) în cazul discret
ii) 𝜑(𝑡) = ∫ℝ 𝑒 𝑖⋅𝑡⋅𝑥 ⋅ 𝑓(𝑥) ⋅ 𝑑𝑥 în cazul continuu.

Propoziția 4.1.1. Funcția caracteristică 𝜑(𝑡), t∈ℝ, a variabilei aleatoare X verifică urmatoarele
proprietăți:
i) 𝜑(0) = 1
ii) |𝜑(𝑡)| ≤ 1 oricare ar fi t∈ℝ
iii) 𝜑(−𝑡) = ̅̅̅̅̅̅
𝜑(𝑡)
iv) 𝜑 este uniform continuua pe ℝ
Demonstrație:
i) Pentru t=0, din (4.1.1.) rezultă 𝜑(0) = 𝑀(𝑒 0 ) = 1
ii) |𝜑(𝑡)| = |∫ℝ 𝑒 𝑖⋅𝑡⋅𝑥 ⋅ 𝑑𝐹 (𝑥)| ≤ ∫ |𝑒 𝑖⋅𝑡⋅𝑥 | ⋅ 𝑑𝐹 (𝑥) = ∫ℝ 𝑑𝐹 (𝑥) = 1 deoarece

|𝑒 𝑖⋅𝑡⋅𝑥 | = |cos(𝑡 ⋅ 𝑥) + 𝑖 ⋅ sin(𝑡 ⋅ 𝑥)| = 1 𝑠𝑖 𝐹 𝑒𝑠𝑡𝑒 𝑐𝑟𝑒𝑠𝑐𝑎𝑡𝑜𝑎𝑟𝑒 𝑝𝑒 ℝ

iii) Avem 𝜑(𝑡) = ∫ℝ 𝑒 𝑖⋅𝑡⋅𝑥 ⋅ 𝑑𝐹 (𝑥) =⋅ ∫ℝ. [cos(𝑡 ⋅ 𝑥) + 𝑖 ⋅ sin(𝑡 ⋅ 𝑥)] ⋅ 𝑑𝐹(𝑥) si

𝜑(−𝑡) = ∫ 𝑒 −𝑖⋅𝑡⋅𝑥 ⋅ 𝑑𝐹 (𝑥) = ∫. [cos(𝑡 ⋅ 𝑥) − 𝑖 ⋅ sin(𝑡 ⋅ 𝑥)] ⋅ 𝑑𝐹(𝑥) = ̅̅̅̅̅̅


𝜑(𝑡)
ℝ ℝ

̅̅̅̅̅
Propoziția 4.1.2. Dacă Xk, k=1, 𝑛, sunt variabile aleatoare independente cu funcțiile
caracteristice

𝜑𝑋𝑘 (𝑡) = 𝑀(𝑒 𝑖𝑡𝑋𝑘 )𝑡𝜖ℝ, 𝑘 = ̅̅̅


𝑙, 𝑛

atunci variabila aleatoare 𝑠 = ∑𝑛𝑘=1 𝑋𝑘 are funcția caracteristică:


𝑛

𝜑𝑠 (𝑡) = ∏ 𝜑𝑋𝑘 (𝑡), 𝑡𝜖ℝ


𝑘=1

Propoziția 4.1.3. Dacă variabila aleatoare X are funcția caracteristică 𝜑𝑋. (𝑡), 𝑡𝜖ℝ atunci
variabila aleatoare 𝑎 ⋅ 𝑥, 𝑎 ∈ ℝ are funcția caracteristică 𝜑𝑎∙𝑋. (𝑡)=𝜑𝑋. (𝑎 ∙ 𝑡)

Demonstrație. Din 4.1.1. obținem:

𝜑𝑞⋅𝑋 (𝑡) = 𝑀(𝑒 𝑖𝑡(𝑎𝑥) ) = 𝑀(𝑒 𝑖(𝑎𝑡)𝑋 ) = 𝜑𝑋 (𝑎𝑡)

Propoziția 4.1.4. Dacă variabila aleatoare X are momentul initial absolut de ordinal k finit
atunci:

31
ⅆ 𝑠 𝜑(𝑡)
| ̅̅̅̅
= 𝑖 𝑠 ⋅ 𝑚𝑠 = 𝑖 𝑠 ⋅ 𝑀(𝑥 𝑠 ), s=1 ,𝑘
ⅆ𝑡 𝑠 𝑡=0

Corolarul 4.1.1. Dacă variabila aleatoare X admite momente inițiale de orice ordin atunci:
(𝑖⋅𝑡)𝑘
𝜑𝑋 (𝑡)=∑∞
𝑘=0 𝑚𝑘 ⋅ , pentru orice t din intervalul de absolut convergență al seriei din membrul
𝑘!
al doilea
∞ ∞
𝑡𝑘 ⅆ𝑘 𝜑(0) 𝑡𝑘
Demonstrație. ∑ ⋅ =∑ ⋅ 𝑖 𝑘 ⋅ 𝑚𝑘 , în care suma seriei este egală cu 𝜑𝑋 (𝑡)
𝑘=1 𝑘! ⅆ𝑡 𝑘 𝑘⋅=0 𝑘!
pentru orice t din intervalul de convergență.

TEOREMA 4.1.1.(Teorema de inversiune) Dacă 𝜑: ℝ → ℂ este funcția caracteristică a variabilei


aleatoare X cu funcția de repartiție F(x), x𝜖ℝ, atunci oricare ar fi punctele x1, x2 de continuitate
ale lui F, are loc egalitatea:
𝑐 .∙
1 ⅇ −𝑖 𝑡∙𝑥1 −ⅇ −𝑖∙𝑡∙𝑥2
𝐹(𝑥2 ) − 𝐹(𝑥1 ) = 𝑙𝑖𝑚 2⋅𝜋 ∫ ⋅ 𝜑(𝑡) ⋅ 𝑑𝑡, dacă valoarea funcției F într-un punct
𝑐→∞ 𝑖⋅𝑡
−𝑐
1
de discontinuitate x0𝜖ℝ este data de 𝐹(𝑥0 ) = 2 [𝐹(𝑥0 − 𝑜) + 𝐹(𝑥0 + 0)], atunci egalitatea de
mai sus are loc pentru orice x1, x2 𝜖ℝ, x1< x2
TEOREMA 4.1.2. (Teorema de unicitate) Funcția caracteristică determină în mod unic funcția
de repartiție
TEOREMA 4.1.3. Dacă funcția caracteristică 𝜑: ℝ → ℝ este absolut integrabilă pe ℝ atunci :
1 ∞
i) 𝐹(𝑥) = 2𝜋 ⋅ ∫−∞ 𝑒 −𝑖⋅𝑡⋅𝑥 ⋅ 𝜑(𝑡) ⋅ 𝑑𝑡 ;
ii) 𝑓 𝑒𝑠𝑡𝑒 𝑢𝑛𝑖𝑓𝑜𝑟𝑚 𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑎 𝑝𝑒 ℝ
Demonstrație

Prin ipoteză avem ∫−∞|𝜑(𝑡)| ⋅ 𝑑𝑡 < ∞ de unde rezultă că funcția:
ⅇ −𝑖⋅𝑡⋅𝑥1 −ⅇ −𝑖⋅𝑡⋅𝑥2
𝜓(𝑡) = ∙ 𝜑(𝑡) este absolut integrabilă pe ℝ, pentru orice x1, x2 𝜖ℝ, x1< x2
𝑖⋅𝑡

Fie h>0. Luăm x1=x-h și x2=x+h. (**)



1 ⅇ 𝑖ℎ𝑡 −𝑖 −𝑖ℎ𝑡
Aplicând (**) avem F(x+h)-F(x-h)=2𝜋 ⋅ ∫ ⋅ 𝑖 −𝑖𝑡ℎ ⋅ 𝜑(𝑡) ⋅ 𝑑𝑡
𝑖⋅𝑡
−∞

Deoarece 𝑒 𝑖ℎ𝑡 − 𝑒 −𝑖ℎ𝑡 = 2isin(ht) se obtine egalitatea:



𝐹(𝑥 + ℎ) − 𝐹(𝑥 − ℎ) 1 ⋅ 𝑠𝑖𝑛(ℎ ⋅ 𝑡) −𝑖𝑡𝑥
= ⋅ ∫ ⋅𝑒 ⋅ 𝜑(𝑡) ⋅ 𝑑𝑡
2ℎ 2𝜋 ℎ⋅𝑡
−∞

32
𝑠𝑖𝑛(ℎ⋅𝑡) 𝑠𝑖𝑛(ℎ⋅𝑡)
Deoarece 𝑙𝑖𝑚 = 1 uniform în raport cu t pe ℝ avem: 𝑙𝑖𝑚 ∫ ⋅ 𝑒 −𝑖𝑡𝑥 ⋅ 𝜑(𝑡) ⋅ 𝑑𝑡 =
ℎ→0 ℎ⋅𝑡 ℎ→𝑜− ℎ⋅𝑡

sin(ℎ⋅𝑡) ∞
∫ [𝑙𝑖𝑚 ] ⋅ 𝑒 −𝑖𝑡𝑥 ⋅ 𝜑(𝑡) ⋅ 𝑑𝑡 = ∫−∞ 𝑒 −𝑖𝑡𝑥 ⋅ 𝜑(𝑡) ⋅ 𝑑𝑡
ℎ⋅𝑡
−∞ ℎ→0

Trecând la limita pentruℎ0 , în ambii membri ai egalități obținem


𝐹(𝑥+ℎ)−𝐹(𝑥−ℎ) 1 ∞
𝑙𝑖𝑚 = 2𝜋 ⋅ ∫−∞ 𝑒 −𝑖𝑡𝑥 ⋅ 𝜑(𝑡) ⋅ 𝑑𝑡, prin urmare Feste derivabilă în punctul 𝑥𝜖ℝ și
ℎ→0 2ℎ
derivate pe F’(x)=f(x)

4.2. Funcții generatoare de momente


Definiția 4.2.1. Aplicația g:D→ ℝ definite prin:
g(t)=𝑀(𝑒 𝑡−𝑥 ) = ∫ℝ 𝑒 𝑡−𝑥 ⋅ 𝑑𝐹 (𝑥), se numește funcție generatoare de momente a variabilei
aleatoatre X, unde este mulțimea valorilor 𝑡𝜖ℝ, pentru care integrala din ultimul membru este
convergentă.
Propoziție 4.2.1. Dacă variabila aleatoare X admite momentul inițial de ordin k
finit atunci
ⅆ𝑠 𝑦(𝑡)
𝑚𝑠 = 𝑚(𝑥 𝑠 ) = | ̅̅̅̅̅
, s=1, 𝑘
ⅆ⋅𝑡 𝑠 𝑡=0

ⅆ𝑠 𝑦(𝑡)
Demonstrație = ∫ℝ 𝑒 𝑡𝑥 ⋅ 𝑥 𝑠 ⋅ 𝑑𝐹 (𝑥) de unde
ⅆ𝑡 𝑠

ⅆ 𝑠 𝑔(𝑡)
| ̅̅̅̅̅
=∫ℝ 𝑥 𝑠 ⋅ 𝑑𝐹 (𝑥)=M(𝑥 𝑠 ), pentru s=1, 𝑘
ⅆ𝑡 𝑠 𝑡=0

̅̅̅̅̅
Propoziția 4.2.2. Dacă Xk , k=1, 𝑛, sunt variabile aleatoare independente atunci
𝑛
funcția generatoare a sumei Y=∑𝑘=1 𝑋𝑘 este
𝑛

𝑔𝑦 (𝑡) = ∏ 𝑔𝑋𝑘 (𝑡)


𝑘=1

Demonstrație
𝑛 𝑛
𝑡𝑌 ) 𝑡𝑋𝑘
𝑔𝑦 (𝑡) = 𝑀(𝑒 = 𝑀 (∏ 𝑒 ) = ∏ 𝑀(𝑒 𝑡𝑋𝑘 )
𝑘=1 𝑘=1

1.Elemente de teoria selecției


1.2. Momente de selecție
1.Definiția momentelor de selecție

33
Prin definiția momentului de selecție de ordinul r este variabila aleatoare
𝜉1𝑟 + ⋯ + 𝜉𝑛𝑟
𝛼𝑟 =
̅̅̅
𝑛
În particular media de selecție este variabila aleatoare
𝜉1𝑟 + ⋯ + 𝜉𝑛𝑟
𝛼𝑟 = 𝜉 ̅ =
̅̅̅
𝑛
Momentul centrat de selecție de ordinul r este variabila aleatoare
𝑟 𝑟
(𝜉 − 𝜉 ̅) + ⋯ + (𝜉𝑛 − 𝜉 ̅)
𝜇𝑟 =
̅̅̅
𝑛
Teorema 1. Dacă repartiția teoretică are media m și dispersia 𝜎 2 , atunci media și
𝜎2
dispersia mediei de selecție 𝜉 ̅ sânt respectiv m si . 𝑛
1 𝜌
(∑𝑛
𝑘=1 𝜌𝑘 )3 2⁄
𝑟 3
lim 1 .= lim 𝜎 = 0, teorema lui Leapunov (teorema 2, cap viii, §1, 3) ne
𝑛→ 𝑛→∞
(∑𝑛 2 2
𝑘=1 𝜎𝑘 )
1
𝑛 ⁄2
.
permite să enunțăm
Teorema 2. Dacă există valorile
𝑀(𝜉) = 𝑚, 𝑀(𝜉 − 𝑚)2 = 𝜎 2 ≠ 0 si 𝑀(|𝜉 − 𝑚|3 ),
𝜉̅ −𝑚
atunci variabila aleatoare 𝜎 este asimptotic normală N(0,1)
√𝑛

Teorema 3. Dacă 𝜉 apartine clasei N(m, 𝜎), media de selecție 𝜉 ̅ aparține clasei
σ
N(m, )
√n

4. Momente de selecție și momente centrate de selecție de ordin superior


5.
Am definit momentul de selecție de ordinul r prin relația
𝜉1𝑟 + ⋯ + 𝜉𝑛𝑟
𝛼𝑟 = 𝜉 ̅ =
̅̅̅
𝑛
și notam 𝛼𝑟 = 𝑀(𝜉 𝑟 ), r=1,2

Teorema 4. Dacă există valorile 𝑀(𝜉 𝑟 ) = 𝛼𝑟 , 𝑀(𝜉 2𝑟 ) = 𝛼2𝑟 si M(|𝛼̅𝑟 − 𝛼𝑟 |3 ),


Este asimptotic normală N(0,1)
Momentul centrat de selecție de ordinul r a fost definit prin relația
𝑟 𝑟
(𝜉1 − 𝜉 ̅) + ⋯ + (𝜉𝑛 − 𝜉 ̅)
𝜇𝑟 =
̅̅̅
𝑛
Teorema 5. Avem relația
1
𝑀(𝜇 𝑟 = 𝜇1 + 𝑜 ( )
̅̅̅)
𝑛

34
Teorema 6. Avem
2
𝜇2𝑟 − 𝜇𝑟2 − 2𝑟𝜇𝑟−1 𝜇𝑟+1 + 𝑟 2 𝜇𝑟 𝜇𝑟−1 1
𝐷2 ̅̅̅̅̅̅
(𝜇𝑟 ) = + 𝑜 ( 2)
𝑛 𝑛
Se poate demonstra folosind aceleași metode ca în cazul s=1 urmatoarele teoreme
Teorema 1.Din momentele mj și M(𝜉(𝑗) 𝜉(𝑘) ), 1 ≤ 𝑗, 𝑘 ≤ 𝑠, există atunci
𝑛
∑ 𝜉𝑖𝑗
𝑗=1
𝜉𝑖̅ =
𝑛
Este o funcție de estimație absolut corectă a lui mi, 1≤ 𝑖 ≤ 𝑠.
2
𝑀(𝜉(𝑖) )
Se găsește M(𝜉̅̅̅̅̅
(𝑖) ) =mi 𝑛

Teorema 2. Dacă există momentele 𝛼𝑟1…𝑟2 𝑠𝑖 𝛼2𝑟1….2𝑟𝑠 , atunci momentul de selecție


∑𝑛 𝑟1 𝑟𝑠
𝑗=1 𝜉1𝑗 ….𝜉𝑠𝑗
̅ 𝑟1…𝑟𝑠 =
∝ este o funcție de estimație absolut corectă a lui 𝛼𝑟1…𝑟𝑠.
𝑛

Teorema 3. În condițiile teoremei precedente , momentul central de selecție


∑𝑛 ̅ 𝑟1 ̅ 𝑟𝑠
𝑗=1(𝜉1𝑗 −𝜉(1) . …..(𝜉𝑠𝑗 −𝜉(𝑠) .
𝜇̅𝑟1….𝑟𝑠 = este o funcție de estimație corectă a momentului centrat
𝑛
theoretic 𝜇𝑟1….𝑟𝑠 .

XIV. Teoria estimației


§1.Funcții de estimație
1.Funcții de estimație eficiente
Fie f(x, 𝜃) o familie de densități de probabilitate ale unei repartiții specificate
continue , 𝜃 fiind un parametru real. Vom admite continuitatea funcțiilor f(x, 𝜃) și existența
derivatelor acestor funcții în raport cu 𝜃 până la ordinele necesare în calculele care vor urma.
Aceste condiții sunt presupuse verificate în toate teoremele care urmează fără să mai indicăm
aceasta de fiecare dată.
Teorema 1. (Rao-Cramer). Fie 𝜃 ∗ (𝜉1−⋯ 𝜉𝑛 ) o funcție de estimație absolut corectă
a parametrului 𝜃 ∗ .
Avem totdeauna inegalitatea
1
𝐷2 [𝜃 ∗ (𝜉1 ⋯ , 𝜉𝑛 )] ≥ ∞
2
𝜕 𝑙𝑛 𝑓 (𝑥, 𝜃)
𝑛∫ [ ] 𝜑(𝑥, 𝜃) 𝑑𝑥
𝜕𝜃
−∞

35
Egalitatea are loc numai în cazul în care 𝑙𝑛 𝑓 (𝑥, 𝜃) are forma particulară
𝑙𝑛 𝑓(𝑥, 𝜃) = 𝐴` (0)[𝐿(𝑥) − 𝜃] + 𝐴(𝜃) + 𝑁(𝑥).

Funcția 𝜃 ∗ (𝑥1,⋯ , 𝑥𝑛 ) pentru care minimul este atins are expresia


𝐿(𝑥1 ) + ⋯ 𝐿(𝑥𝑛 )
𝜃 ∗ (𝑥1,⋯ , 𝑥𝑛 ) = .
𝑛
Teorema 2. Doua funcții de estimație eficiente sant egale aproape sigur
Demonstrație. Fie doua funcții de estimație eficiente 𝜃1∗ 𝑠𝑖 𝜃2∗ . 𝑆𝑒 vede usor ca
𝜆𝜃1∗ + (1 − 𝜆)𝜃2∗ este o funcție de estimație absolut corectă. Prin ipoteză avem
D2(𝜃1∗ ) =D2(𝜃2∗ )
Pe de altă parte
D2[𝜆𝜃1∗ + (1 − 𝜆)𝜃2∗ ]=M[𝜆(𝜃1∗ − 𝜃) + (1 − 𝜆)(𝜃2∗ − 𝜃)]2=D2(𝜃1∗ )[𝜆2 + 2𝜆(1 − 𝜆)𝜌 +
(1 − 𝜆)2].
Unde 𝜌 este coeficientul de corelație al variabilelor 𝜃1∗ si 𝜃2∗
𝑀(𝜃1∗ − 𝜃)(𝜃2∗ − 𝜃)
𝜌=
𝐷(𝜃1∗ )𝐷(𝜃2∗ )
Avem însă
D2[𝜃1∗ + (1 − 𝜆)𝜃2∗ ]≥D2(𝜃1∗ )
Deoarece θ1∗ este o functie de estimatie eficientă, prin urmare , oricare ar fi λ trebuie să avem

2𝜆(𝑡 − 𝜆)(𝜌 − 1) ≤ 0, cee ce nu este posibil decât dacă 𝜌 = 1

2.Funcții de estimație suficiente


Teorema 3.Dacă statistica t este suficientă pentru familia de densități f(x, 𝜃), atunci
pentru orice funcție boreliana U definite pe Rn , media condițională de t a lui U(𝜉1 − ⋯ , 𝜉𝑛 )
poate fi definite așa în cât ea să nu depindă de 𝜃.
O funcție de estimație absolut corectă F(𝜉1 − ⋯ , 𝜉𝑛 ) a parametrului 𝜃 se va numi
suficientă dacă F(𝜉1 − ⋯ , 𝜉𝑛 ) este o statistică suficientă pentru familia de densitați f(x, 𝜃).
Teorema 4. Orice funcție de estimație eficientă este și suficientă.
Teorema 5. O statistică suficientă pentru familia de densități f(x, 𝜃), există dacă și
numai dacă lnf(x, 𝜃), este de forma:

36
Ln f(x, 𝜃)=𝐴1 (𝜃)𝜓1 (𝑥) + 𝐴0 (𝜃) + 𝜓0 (𝑥)
Orice funcție de estimație suficientă a parametrului 𝜃 este o funcție de ∑𝑛𝑖=1 𝜓1 (𝜉𝑖 ).

3.Metoda verosimilității maxime


Să considerăm densitatea de probabilitate 𝑃(𝑥1… 𝑥𝑛 , 𝜃) = ∏𝑛𝑖. =1 𝑓(𝑥𝑖 , 0).
𝜃 ∗ = 𝜃 ∗ (𝑥1 … 𝑥𝑛 ) ⋅
Funcția de estimație de verosimilitate maxima 𝜃 ∗ trebuie să verifice deci ecuația
𝑛
𝜕 𝑙𝑛 𝑝(𝑥1 … 𝑥𝑛 , 0) 𝜕 ln 𝑓(𝑥𝑖 , 𝜃)
=∑ = 0 (∗∗∗)
𝜕𝜃 𝜕𝜃
𝑖=1

Teorema 6. Orice funcție de estimație eficientă verifică ecuația verosimilității


maxime (***)
Demonstrație. Ținând seama de teorema 1 trebuie să avem
𝑙𝑛 𝑓(𝑥, 𝜃) = 𝐴′ (𝜃)[𝐿(𝑥) − 𝜃] + 𝐴(𝜃) + 𝑁(𝑥)
𝑛
∑𝑖=1 𝐿(𝑥𝑖 )
Iar funcția de estimație eficientă este data de relația 𝜃 ∗ (𝑥1 … 𝑥𝑛̇ ) = 𝑛

Din (***) rezultă A′′(𝜃) ∑𝑛𝑖=1[𝐿(𝑥𝑖 ) − 𝜃] = 0 (singura soluție)


Teorema 7. Dacă există o funcție de estimație suficientă 𝐹(𝜉1 , ⋯ , 𝜉𝑛 ), orice soluție
a ec (***) este funcție de 𝐹(𝑥1 , . . , 𝑥𝑛 ).
Demonstrație. Ținând seama de teorema 5 trebuie să avem
𝑙𝑛 𝑓(𝑥, 𝜃) = 𝐴1 (𝜃)𝜓1 (𝑥) + 𝐴0 (𝜃) + 𝜓0 (𝑥)
𝑛

𝐹(𝑥1 … 𝑥𝑛 ) = 𝜙 [∑ 𝜓1 (𝑥𝑗 )]
𝑖=1

𝐴′0 (𝜃)
Din ec (***) obținem ∑𝑛𝑖=1 𝜓1 (𝑥𝑖 ) = −𝑛
𝐴′1 (𝜃)

Orice soluție 𝜃 ∗ a ultimei ecuații este funcția de 𝜙[∑𝑛𝑖=1 𝜓1 (𝑥𝑖 )] = 𝐹(𝑥1 , . . , 𝑥𝑛 )

Teorema 8. Fie 𝜃 ∗ (𝑥1 , . . , 𝑥𝑛 ) o soluție a ecuației (***). Daca


1 𝜕2 𝑙𝑛 𝑝
a) [ ] , converge în probabilitate către o valoare finită A
𝑛 𝜕𝜃2 𝜃=𝜃∗ (𝜉1 ,⋯,𝜉𝑛 )

37
1 𝜕3 𝑙𝑛 𝑝
b) [ ] , , converge în probabilitate către o valoare finită B
𝑛 𝜕𝜃3 𝜃=𝜃∗ (𝜉1 ,⋯,𝜉𝑛 )

c) Variabila aleatoare √𝑛(𝜃 ∗ (𝜉1 … 𝜉𝑛 ) − 𝜃) are o repartiție asimptotică nedegenerată , atunci


𝜃 ∗ (𝜉1 … 𝜉𝑛 ) este o funcție de estimație asimptotic eficientă.

§ 2. Teoria estimației pentru familii de reparaiții cu mai mulți parametri


Să considerăm o familie de densități de probabilitate f(x, 𝜃1 … 𝜃𝑘 ) depinzând de k
parametri necunoscuți. Singura deosebire fața de problema estimării unui singur parametru , 𝜃.
Pentru familia de densități de probabilitățe f(x, 𝜃. ) este că va trebuii să considerăm k funcții de
estimație .
Metoda verosimilității maxime revine la considerarea densității de probabilitate
𝑝(𝑥1 , . . , 𝑥𝑛 ; 𝜃1 , . . , 𝜃𝑘 ) = ∏𝑛𝑖=1 𝑓(𝑥𝑖 ; 𝜃1 , … , 𝜃𝑘 ), și la rezolvarea sistemului de verosimilitate
maximă
𝜕 𝑙𝑛 𝑝
= 0, 1≤𝑖≤𝑘
𝜕𝜃𝑖
Conform datelor din curs RAPORTUL:
|𝐴|−1
en(𝜃1∗ , . . , 𝜃𝑘∗ )= |𝐵|
, se numește eficiența sistemului de funcții de estimație 𝜃1∗ , . . , 𝜃𝑘∗ .

Pentru sistemele de funcții de estimație eficiente, eficiența este egală cu 1


Dacă 𝑙𝑖𝑚 𝑒𝑛 (𝜃1∗ , . . , 𝜃𝑘∗ )=1
𝑛→∞

Spunem că funcția de estimație 𝜃1∗ , . . , 𝜃𝑘∗ sunt asimptotic eficiente.


Le vom examina separate, cazul familiilor de repartiții multidimensionale. Tot ce
este precizat mai sus pentru repartițiile unidimensionale este valabil și pentru repartițiile
multidimensionale.

§ 3. Teoria estimației pentru câteva familii de repartiții


1.Repartiția binomiala.
Fie 𝛏 o variabilă aleatoare care poate lua numai valorile 1 și 0 respectiv cu
probabilitățile p și q=1-p. Trebuie să estimăm parametrul p pe baza unei selecții repetate
𝜉1 ,.., 𝜉2 . Probabilitatea ca să avem 𝜉1 = 𝑥1… 𝜉𝑛 = 𝑥𝑛 este egală cu 𝑝(𝑥1 ⋯ 𝑥𝑛 , 𝑝) = 𝑝𝑣 ⋅ 𝑞 𝑛−𝜈
Dacă 𝑣 dintre valorile 𝑥1 ⋯ 𝑥𝑛 sunt egale cu 1 iar celelalte egale cu 0.
Ecuația versomilitații maxime ne dă

38
𝜕 𝜈 𝑛−𝜈
𝑙𝑛 𝑝𝜈 ⋅ 𝑞 𝜂−𝑣 = − =0
𝜕𝑝 𝑝 𝑞
𝜈 𝑥1 … 𝑥𝑛
𝑝= =
𝑛 𝑛
𝜉1 +⋯+𝜉𝑛
Vom arăta că 𝜃 ∗ = , este o funcție de estimație eficientă pentru parametrul p.
𝑛.

Deci 𝜃 ∗ este o funcție de estimație absolut corectă. Știm că oricare ar fi funcția de


estimație absolut corectă a lui p avem
1
𝐷2 (𝜃1∗ ) ≥ 2 , unde
𝜕 𝑙𝑛 𝑝𝑖 2
𝑛∑ ( ) 𝑝𝑖 (𝑝)
𝜕𝑝
𝑖=1

𝑝𝑖 (𝑝) = 𝑝
𝑝2 (𝑝) = 1 − 𝑝
2
𝜕 𝑙𝑛 𝑝𝑖 2 1 1 1
Din ∑ ( ) 𝑝𝑖 (𝑝) = 𝜌 𝑝2 + (1 − 𝑝) (1−𝑝)2 = 𝑝𝑞 rezultă
𝑖=1 𝜕𝑝

𝑝𝑞
𝐷2 (𝜃 ∗ ) ≥ ⋅
𝑛
Minimul fiind atins, demonstrația este încheiata.
2. Repartiția multinominală
Fie 𝜉 o variabilă aleatoare care poate lua numai valorile vectoriale e1…ek cu probabilitățile
respective p1,…,pk unde
e1=(1,0,…,0)
e2=(0,1,…,0)
………………
ek=(0,0,…,1)
Trebuie să estimăm parametrii p1,….,pk-1 pe baza unei selecții repetate 𝜉1 + ⋯ + 𝜉𝑛 . Valoarea pk
rezultă ca o consecință din faptul ca p1+…+pk=1.
Probabilitatea ca să avem 𝜉1 = 𝑥1 ,…, 𝜉2 = 𝑥𝑛 este egală cu
𝜈 𝜈 𝜈
𝑃1 (𝑥1 … 𝑥𝑛 ; 𝑝1 … 𝑝𝑘−1 )=𝑝2 1 𝑝2 2 … ⋅ 𝑝𝑘 𝑘

Dacă 𝑣𝑗 dintre vectorii 𝑥1 … 𝑥𝑛 sînt egali cu ej 1 ≤ 𝑗̇ ≤ 𝑘.

Evident 𝜈1 𝑒1 + ⋯ + 𝜗𝑘 𝑒𝑘 = 𝜉1 + ⋯ + 𝜉𝑛
Sistemul verosimilității maxime ne dă

39
𝜕 𝑙𝑛 𝑝 𝜕 𝑙𝑛 𝑝 𝜕 𝑙𝑛 𝑝
= 0, = 0 ,…….., 𝜕𝑝 =0
𝜕𝑝1 𝜕𝑝2 𝑘−1

𝑣1 𝜈 𝑣2 𝜈 𝑣 𝜈
− 𝑝𝑘 = 0, − 𝑝𝑘 = 0 ,………..,𝑝𝑘−1 − 𝑝𝑘 = 0
𝑝1 𝑘 𝑝2 𝑘 𝑘−1 𝑘

𝑣1 𝑣2 𝑣𝑘−1
De unde 𝑝1 = , 𝑝2 = ,……., 𝑝𝑘−1 =
𝑛 𝑛 𝑛

Vom arăta că funcțiile de estimație


𝜈 (𝜉1 +⋯+𝜉𝑛 )ⅇ1
𝜃1∗ = 𝑛1 = 𝑛

…………………………………..
∗ 𝜈𝑘−1 (𝜉1 +⋯+𝜉𝑛 )ⅇ𝑘−1
𝜃𝑘−1 = = , sunt eficiente
𝑛 𝑛

Aceste funcții de estimatie sunt absolut corecte deoarece avem


𝑀(𝜃𝑖∗ ) = 𝑝𝑖
𝑝𝑖 (1 − 𝑝𝑖 )
𝐷2 (𝜃𝑖∗ ) = , 1≤𝑖 ≤𝑘−1
𝑛
Elementele matricei B sînt:
𝑘
𝜕ℎ𝑝ℎ 2 𝑝𝑖 − 𝑝𝑘
𝑛𝑏𝑖𝑖 = 𝑛 ∑ ( ) 𝑝ℎ = 𝑛, 1≤𝑖 ≤𝑘−1
𝜕𝑝𝑖 𝜌𝑖 𝑝𝑘
ℎ=1
𝑘
2
𝜕ℎ𝑝ℎ 1
𝑛𝑏𝑖𝑗 = 𝑛 ∑ ( ) 𝑝ℎ = 𝑛, 1 ≤ 𝑖, 𝑗 ≤ 𝑘 − 1, 𝑖≠𝑗
𝜕𝑝𝑗 𝜌𝑘
ℎ=1

Elementele matricei A
𝑝𝑖 (1−𝑝𝑖 )
Aii=𝑀(𝜃𝑖∗ − 𝑝𝑖 )2 = 1. ≤ 𝑖 ≤ 𝐾 − 1
𝑛
𝑝𝑖 𝑝𝑗
Aij=𝑀(𝜃𝑖∗ − 𝑝𝑖 ). (𝜃𝑗∗ − 𝑝𝑗 ) = − 1. ≤ 𝑖, 𝑗 . ≤ 𝑘 − 1, , 𝑖 ≠ 𝑗
𝑛

Un calcul simplu ne arată că inversa matricei A este chiar matricea B.

3. Repartiția Poisson
Trebuie să estimăm parametrul 𝜆 din relația

40
𝜆𝑘 −𝜆
𝑃(𝑘, 𝜆) = 𝑒 , 𝑘 = 0,1 …
𝑘!
Pe baza unei selecții repetate𝜉1 , … , 𝜉𝑛 . Probabilitatea ca să avem 𝜉1 = 𝑥1 , … , 𝜉𝑛 = 𝑥𝑛 , valorile
𝑥1 , … , 𝑥𝑛 fiind întregi nenegativi este
𝑛
∑ 𝑥𝑖
𝜆 1=1
𝑃(𝑥1 … 𝑥𝑛 , 𝜆)=𝑒 −𝑛𝜆 𝑛 .
∏𝑖=1 𝑥𝑖 !

Ecuația verosimilității maxime ne dă


𝑥1 , . . , 𝑥𝑛
𝜆=
𝑛
𝜉1 …𝜉𝑛
Vom arăta că 𝜃 ∗ = , este o funcție de estimație eficientă pentru parametrul 𝜆. Într-adevăr
𝑛
𝑀(𝜃 ∗ ) = 𝜆
𝑥
𝐷2 (𝜃 ∗ ) =
𝑛
Pe de altă parte , minimul dispersiei pentru funcțiile de estimație absolut corecte este
1

2
𝜕 𝑙𝑛 𝑃(𝑘, 𝜆)
𝑛∑ [ ] 𝑝(𝑘, 𝜆)
𝜕𝜆
𝑘=0

Cum
∞ 2
1 𝑘 𝜆𝑘𝑒 −𝜆 𝑛 𝑥
∞ =𝑛 ∑ (𝜆 − 1) ⋅ = 𝜆 , minimul dispersiei este 𝑛
𝜕 𝑙𝑛 𝑃(𝑘,𝜆) 2 𝑘=0 𝑘!
𝑛∑ [ ] 𝑝(𝑘,𝜆)
𝜕𝜆
𝑘=0

4.Repartiția normală
Estimația mediei. Să considerăm familia de repartiții normale cu densitatea de
probabilitate
−(𝑥−𝑚)2
1
𝑓(𝑥, 𝑚) = 𝜎√2𝜋 ⋅ 𝑒 2𝜎2 (a)

Unde 𝜎 este cunoscut, iar m este un parametru ce trebuie estimate pe baza unei selecții repetate
de volum n, 𝜉1 … 𝜉𝑛 .
𝑚 𝑚2 𝑥2 1
𝑙𝑛 𝑓(𝑥, 𝑚) = 𝑥 − − + 𝑙𝑛
𝜎2 2𝜎 2 2𝜎 2 𝜎√2𝜋
Din teorema 1 § 1rezultă că

41
𝜉1 + ⋯ + 𝜉𝑛
𝜃 ∗ (𝜉1 , … , 𝜉𝑛 ) =
𝑛
Este o funcție de estimație eficientă a parametrului m pentru familia (a) întrucât putem scrie
𝑚 𝑚2 𝑥2 1
𝑙𝑛 𝑓(𝑥, 𝑚) = 𝜎2 (𝑥 − 𝑚) − 2𝜎2 − 2𝜎2 + 𝑙𝑛 𝜎√2𝜋.

Se poate verifica de altfel , printr-un calcul direct ca 𝜃 ∗ este o funcție de estimație absolut corecta
care realizează minimul dispersiei.
Estimația valorii medii pătratice. Să considerăm familia de densităti de
−(𝑥−𝑚)2
1
probabilitate 𝑓(𝑥, 𝜎) = 𝜎√2𝜋 ⋅ 𝑒 2𝜎2 (b)

Unde m este cunoscut, iar 𝜎 un parametru ce trebuie estimate pe baza unei selecții repetate
𝜉1 , … , 𝜉𝑛 .
(𝑥−𝑚)2
Avem 𝑙𝑛 𝑓(𝑥, 𝜎) = − ln 𝜎 − ln √2𝜋 − 2𝜎2

Din teorema 5 § 1 rezultă că orice funcție de estimație suficientă pentru familia (b) este o funcție
𝑛
de ∑𝑖=1(𝜉1 − 𝑚)2
𝜕 𝑙𝑛 𝜌
Metoda verosimilității maxime = 0 ne dă
𝜕𝜎

∑𝑛𝑖=1(𝑥𝑖 − 𝑚)2
𝜎=√
𝑛
𝑛
∑ (𝜉1 −𝑚)2
Vom arăta că 𝜃 = 𝑐√ 𝑖=1

𝑛

Unde c este o constantă pe care o vom determina , este o funcție de estimație asimptotic eficientă
pentru parametrul 𝜎.
n
Variabilele ξi − m, 1 ≤ i ≤ n, aparține clasei N(0, σ). Prin urmare ∑i=1(ξ1 − m)2 aparține
𝜃∗
clasei H(n, σ). Rezultă atunci că densitatea de probabilitate a lui este
𝑐
𝑛
𝑛 2
2 (2) 𝑛𝑥 2
− 2
𝑛−1
𝑛 ⋅𝑥 ⋅ 𝑒 2𝜎 , 𝑥>0
σ𝑛 𝛤 [2]

§ 4. Selecții nerepetate
Vom considera acum selecțiile nerepetate marginându-se. În cazul în care
caracteristica 𝛏 este definite într-o colectivitate finite compusă din N elemente.

42
După cele spuse de in § 1.1 caracteristica 𝛏 este o variabilă aleatoare pe un câmp
finit de probabilitate {Ω, K, P} în care elementele lui Ω sunt chiar elementele colectivității
generale, K coincide cu mulțimea părților lui Ω iar P este repartiția discretă uniformă pe Ω.
Variabilele 𝛏1 ,.., 𝛏2 nu mai sunt independente ci formează un lanț cu legături complexe.
𝑛 2
∑ (𝜉𝑘 −𝜉̅ )
𝑛 2
După calcule am evidențiat că: f=𝑁 , 𝑆 = 𝑀 [ 𝑘=1
]
𝑛−1

Putem deci enunța


Teorema 1. Media de selecție pentru selecțiile nerepetate este o funcție de
estimație absolut corectă pentru media teoretică m.
𝑛 2
∑ (𝜉𝑘 − 𝜉 ̅)
𝑘=1
𝑆2 = 𝑀
𝑛−1
[ ]
Conform demonstrației din curs am extras urmatoarele formule :
𝑁 𝑁
∑𝑖=1(𝑎𝑖 −𝑚1 )𝑎 ∑𝑖=1(𝑎𝑖 −𝑚2 )𝑎
𝜎12 = , 𝜎22 =
𝑁 𝑁

∑𝑁
𝑖=1(𝑎𝑖 − 𝑚1 )(𝑏𝑖 − 𝑚2 )
𝜎12 =
𝑁
𝑁 𝑁
𝑠12 = ⋅ 𝜎2 𝑠22 = ⋅ 𝜎2
𝑁−1 1 𝑁−1 2

𝑁
𝑠12 = ⋅𝜎
𝑁 − 1 12
Teorema 2. Avem relațiile
̅ ) = 𝑚1
M(𝜉(1) ̅ ) = 𝑚2
M(𝜉(2)
𝑠2
̅ − 𝑚1 )2)=(1 − 𝑓) 1
M((𝜉(1) 𝑛

𝑠2
̅ − 𝑚2 )2)=(1 − 𝑓) 2
M((𝜉(2) 𝑛

̅ − 𝑚2 )) = (1 − 𝑓) 𝑠12 ,
̅ − 𝑚1 )(𝜉(2)
M((𝜉(1) 𝑢𝑛𝑑𝑒 ∶ f = 𝑁 , (𝑛 < 𝑁).
𝑛
𝑛

̅ 𝑠𝑖 𝜉(2)
Teorema aceasta ne arată ca 𝜉(1) ̅ sunt funcții de estimație absolut corectă ale mediilor
teoretice m1 și m2

43
̅ 𝑠𝑖 𝜉(2)
Teorema 3. Coeficientul de corelație al variabilei 𝜉(1) ̅ este independent de
𝑠
volumul selecției și este egal cu 𝑠 12𝑠
1 2

𝜉̅(1) 𝑚
Teorema 4. Raportul 𝜉̅ este o funcție de estimație corectă a raportului 𝑚1 𝑑𝑎𝑐ă
(2) 2

𝑎𝑖 ⋅≥ 0 𝑏𝑖 > 0,1 ≤ 𝑖 ≤ 𝑁. 𝐴𝑣𝑒𝑚 𝑟𝑒𝑙𝑎ț𝑖𝑖𝑙𝑒


𝜉̅
(1) 𝑚 1
M(𝜉̅ ) = 𝑚1 + 𝑜 (𝑛)
(2) 2

𝜉̅ 𝑚2 𝑠2 𝑠12 𝑠2 1 2
D2 (𝜉̅ ) = (1 − 𝑓) 𝑚21 (𝑚12 − 2 𝑚
(1)
+ 𝑚22 ) + 𝑜 (𝑛)
(2) 2𝑛 1 1 𝑚2 2

§ 5. Selecții repetate pentru o caracteristică normală


1.Caracteristici unidimensionale
În acest punct revenim la selecțiile repetate și studiem cazul important în care
caracteristica 𝛏 aparține clasei N(m,𝜎). Prin urmare pentru o selecție de volum n, variabilele
aleatoare independente 𝛏1,…., 𝛏2 au fiecare repartiție normala cu media m și dispersia 𝜎 2 .
Teorema 1. În cazul selecțiilor repetate de volum n pentru o caracteristică normală:
𝜎
a) Media de selecție 𝜉 ̅ aparține clasei N(𝑚, 𝑛) ;

̅
b) Variabilele 𝜉 și μ̅2 sunt independente și nμ̅2 apartine clasei H(n − 1, σ)
c) Densitatea de probabilitate a variabilei 𝜎̅ = √̅̅̅
𝜇2 este
𝑛−1
𝑛𝑥2
2𝑛 2 𝑛−2 −
f(x)= 𝑛−1 𝑛−1 𝑥 𝑒 2𝜎2 , x≥ 0.
𝜎 2 𝑛−1
2 2 𝛤( )
2

Teorema 2. În cazul selecțiilor repetate de volum n pentru o caracteristică normală


𝜉̅
variabila 𝜃 = √𝑛 − 1 ̅̅̅̅
, aparține clasei S(n-1)
√𝜇 2

2.Caracteristici multidimensionale
Teorema 3. În cazul selecțiilor repetate de volum n pentru o caracteristică normală
s-dimensională , notând

𝑛
1
̅̅̅̅
𝜉(𝑖) = ∑ 𝜉𝑖𝑘 , 1≤𝑖≤𝑠
𝑛
𝑘=1

44
𝑛
1
𝑛̅𝑖𝑗 = ∑(𝜉𝑖𝑘 − 𝜉(𝑙)̇ )(𝜉𝑗𝑘 − 𝜉(𝑗) ) , 1 ≤ 𝑖, 𝑗 ≤ 𝑠.
𝑛
𝑘=1

Avem următoarele proprietăți


a) Grupele de variabile 𝜉(𝑙)̇ , 1 ≤ 𝑖 ≤ 𝑠 si 𝑛̅𝑖𝑗 , 1 ≤ 𝑖, 𝑗 ≤ 𝑠 sînt independente
b) Variabila 𝜉̅̅̅̅̅ ̅̅̅̅̅
(1) ,…., 𝜉(𝑠) ) are repartiția normală s-dimensională având aceeași medie ca
repartiția teoretică și momentele centrate de ordinul al doilea respectiv de n ori mai
mici decât momentele centrate de ordinul al doilea ale repartiției teoretice.
c) Variabila s2 dimensională (𝑛̅𝑖𝑗 ) aparține clasei W(s, n-1, nA)

Exerciții

1 2 3 4
Exercițiul 1. Se consider variabila aleatoare discrete 𝑋: (𝑝2 7
𝑝
1 1 ). Care este
4 3 6
probabilitatea ca X să ia valoarea mai mica sau egală cu 3?
Rezolvare
7 1 1
Pentru ca X să fie o variabilă aleatoare trebuie ca 𝑝 ≥ 0 și 𝑝2 + 4 𝑝 + 3 + 6 = 1. Se obține
1
soluția acceptabilă p= .
4

Se calculează probabilitatea cerută prin intermediul evenimentului contrar și anume


1 5
𝑃(𝑋 ≤ 3) = 1 − 𝑃(𝑋 = 4) = 1 − 6 = 6 sau

1 7 1 5
𝑃(𝑋 ≤ 3) = 𝑃(𝑋 = 1) + 𝑃(𝑋 = 2) + 𝑃(𝑋 = 3) = + + =
16 16 3 6

Exercițiul 2. Se dau variabilele aleatoare independente


−1 0 1 −1 0 1
𝑋: (𝜌 + 1 𝑞 + 1 1 ) și Y: ( 1 2𝑝 − 𝑞 12𝑝 ), să se scrie distribuția variabilei 2XY
2
6 3 3 3

Rezolvare

1 1 1
1 1
𝑝+6+𝑞+3+3= 1
𝑝 + 6 ≥ 0, 𝑞 + 3 ≥ 0, 2𝑝 − 𝑞 ≥ 0 și apoi {1 , rezultă valorile
+ 2𝑝 − 𝑞 + 12𝑝2 = 1
3
1
acceptabile p=6 și q=0. De aici rezultă că variabilele aleatoare au repartițiile

45
−1 0 1 −1 0 1
𝑋: ( 1 1 1 ) și Y: ( 1 1 1)
3 3 3 3 3 3

−2 0 2
În continuare obținem ca 2XY: ( 2 5 2)
9 9 9

Exercițiul 3. Ținând cont de datele obținute de la exercițiul 2, șă se resolve următoarea cerință.


2
Pentru ce valori ale lui c avem P(X+Y=c)> 9 ?

Rezolvare
−2 −1 0 1 2 2 3 2
X+Y:( 1 2 3 2 1 ), deci P(X+Y=c) )> corespunde situației P(X+Y=0)= >9
9 9
9 9 9 9 9
adică c=0

Exercițiul 4. Fie X o variabilă aleatoare care are densitatea de probabilitate definite prin 𝜌(𝑥) =
0, 𝑥 ∉ (0,2)
{1
, 𝑥 ∈ (0,2)
2

Să se determine modulul și mediana


Rezolvare.
Conform definiției M0 este valoarea pentru care 𝜌(𝑥) → 𝑚𝑎𝑥. Adică M0∈ (0,2) adică există o
infinitate de valori modale situate pe segmental (0,2).
1
Mc se determină din ecuația F(Mc)= 2
𝑀 𝑀𝑒
Cum F(Mc)= 𝑃(𝑋 ≤ 𝑀ⅇ ) = ∫0 𝑒 𝜌(𝑥) 𝑑𝑥 = ⇒ 𝑀ⅇ = 1
2

Exercițiul 5. Fie X o variabilă aleatoare care are densitatea de probabilitate definite prin 𝜌(𝑥) =
0, 𝑥 ∉ (0,2)
{1
, 𝑥 ∈ (0,2)
2

Să se calculeze momentul de ordin k, mk(x)


Rezolvare

𝑘)
1 2𝑘
𝑚𝑘 (𝑥) = 𝐸(𝑥 = ∫ 𝑥 𝑘 ⋅ 𝑑𝑥 =
2 𝑘+1
−∞

46
Exercițiul 6. Dintr-o populație oarecare s-a extras o selecție de volum n=80 care a condus la
rezultatele :
xi 1 3 5 9
ni 11 25 31 13
4
Unde ni reprezintă frecvența de apariție a valorii xi în selecție (𝑛 = ∑𝑖=1 𝑛𝑙̇ = 80). Să se
calculeze media de selecție 𝑥̅ și dispersia de selecție ̅̅̅
𝜇2
Rezolvare
1 1
𝑥̅ = ⋅ 𝛴𝑛𝑖 ⋅ 𝑥𝑖 = (11 ∙ 1 + 25 ∙ 3 + 31 ∙ 5 + 13 ∙ 9) = 3.58
∑𝑛𝑖 100
1
𝜇2 =
̅̅̅ ⋅ ∑𝑛𝑖 ⋅ (𝑥𝑖 − 𝑋̅)2
𝛴𝑛𝑖

Vom organiza calculele în tabelul următor:


ni xi xi-𝑥̅ (xi-𝑥̅ )2 ni(xi-𝑥̅ )2
11 1 -2.58 6.66 73.26
25 3 -0.83 0.69 17.25
31 5 -1.39 1.93 59.83
13 9 -2.51 6.30 81.9
80 3.58 232.24
𝜇2 =
̅̅̅
80
= 2.903

Exercițiul 7. Dintr-o populație normală cu media m=10, probabilitatea ca media de selecție


corespunzătoare unei selecții de volum n=25 să depășească 16 este 0.28. Care este probabilitatea
ca o singură observație din această populație să aibă o valoare mai mare de cât 16?
Rezolvare
Deoarece media de selecție 𝑋̅ este repartizată de asemenea normal , cu media m și
𝜎2
dispersia , avem:
𝑛

𝑋 −𝑚 ̅
16−10 30
𝑃(𝑋̅ > 16) = 1 − 𝑃(𝑋̅ ≤ 16)=1 − 𝑃 ( ⋅ √𝑛 ≤ ⋅ √25) = 1 − 𝑃 (𝑍 ≤ ) = 0.28
𝜎 𝜎 𝜎

30
Adică 𝑃 (𝑍 ≤ ) = 0.72
𝜎

30 30
Deci 𝜙 ( 𝜎 ) = 0,72, de unde = 0,72, 𝜎 = 41,66 Cu 𝜎 astfel obținut, probabilitatea cerută este
𝜎

𝑋𝑘 −𝑚 16−10
:𝑃(𝑋𝑘 > 16) = 1 − 𝑃(𝑋𝑘 ≤ 16) = 1 − 𝑃 ( ≤ )=
𝜎 41.66

1 − 𝑃(𝑍 ≤ 0,144) = 1 − 𝜙(0,144) = 0.896

47
Deci 𝑃(𝑋𝑘 > 16)=0.896

Exercițiul 8. Dintr-o populație normală cu media m1=100 și dispersia 𝜎12 =80 se extrage o selecție
de volum n1=600 și din altă populație normal cu m2=91 și dispersia 𝜎12 =220 se extrage o selecție
de volum n2=300.
Să se calculeze probabilitatea ca:
̅̅̅1 a primei populații să fie mai mare decât media de selecție 𝑋
Media de selecție 𝑋 ̅̅̅2 a celei de a doua
populații cu cel puțin 8 unități.
Rezolvare
̅̅̅1 > 𝑋
Avem de calculat 𝑃(𝑋 ̅̅̅2 + 8) sau:

𝑥1 −𝑥2 −(𝑚1 −𝑚2 ) 10−(100−91)


̅̅̅1 > 𝑋
𝑃(𝑋 ̅̅̅2 + 8)=P > =𝑃(𝑍 > 1) = 1 − 𝑃(𝑍 ≤ 1) = 1 − 𝜙(1) =
55 140
𝜎2 𝜎2 √ +
√ 1+ 2 566 188
𝑛1 𝑛2
( )
1 −0.958=0.042

48

S-ar putea să vă placă și