Documente Academic
Documente Profesional
Documente Cultură
1)Evenimente întâmplătoare
Acestea pot fi clasificate în evenimente sigure, evenimente imposibile și evenimente
întâmplătoare.
Eveniment sigur-eveniment care se produce în mod obligatoriu la efectuarea unui anumit
experiment.
Eveniment imposibil-eveniment care nu se produce în mod obligatoriu la efectuarea unui anumit
experiment.
Eveniment întamplator-eveniment care poate fie să se producă fie să nu se producă la efectuarea
unui anumit experiment.
Două sau mai multe evenimente se numesc incompatibile dacă producerea unuia dintre ele exclude
producerea celorlalte într-o aceeași probă.
2)Definiția clasică a probabilității
Se numește probabilitate a unui eveniment P(A) și se notează cu P(A)raportul dintre numărul m
de rezultate favorabile producerii lui A și numărul total n de rezultate ale experimentului:
𝑚
𝑃(𝐴) = 𝑛 .
Exercițiu 1.: Într-o urnă amestecăm 10 bile identice în care sunt 6 albe și 4 negre, extragerea din
urnă poate avea 10 rezultate egal posibile. Cazurile favorabile A=6 deoarece în urnă avem bile
6 3
albe. Din acest caz rezultă 𝑃(𝐴) = 10 = 5
1
Teorema: probabilitatea producerii unuia dintre evenimentele incompatibile A și B este egală cu
suma probabilităților acestor evenimente.
P(A ∪ B)=P(A)+P(B).
Consecință: probabilitatea producerii unuia dintre mai multe evenimente incompatibile este egală
cu suma probabilităților acestor evenimente.Pentru trei evenimente incompatibile A,B,C rezultă:
P(A ∪ 𝐵 ∪ 𝐶) = 𝑃[A ∪ 𝐵 ∪ 𝐶] = 𝑃(A ∪ 𝐵) + 𝑃(𝐶) = 𝑃(𝐴) + 𝑃(𝐵) + 𝑃(𝐶).
Exercițiu 2:
Într-o urnă se gasesc 44 bile; 16 roșii, 11 negre și 17 albe. Care este probabilitatea de a extrage o
bila colorată?
16
P(A)=44
11
P(B)=44
16 11 27
P(A∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) = 44 + 44 = 44
5)Evenimente contrare
Doua evenimente se numesc contrare dacă ele sînt incompatibile și reuniunea lor este evenimentul
sigur Ω.
Teoremă: Suma probabilităților a două evenimente contrare este egale cu 1:
P(A)+P(CA)=1
6)Sistem complet de evenimente
Evenimentele 𝐴1 , 𝐴2 , … . . , 𝐴𝑟 formează un sistem compet de evenimente dacă un experiment
conduce la unul și numai unul singur dintre aceste evenimente. Cu alte cuvinte evenimentele
𝐴1 , 𝐴2 , … . . , 𝐴𝑟 sunt incompatibile și reuniunea lor este egală cu evenimentul sigur Ω.
Teoremă: Suma probabilităților evenimentelor dintr-un sistem complet de evenimente este egal
cu 1
𝑃(𝐴1 ) + 𝑃(𝐴2 ) + ⋯ . . +𝑃(𝐴𝑟 ) = 1
1.1.1 Evenimente. Operaâții cu evenimente.
Rezultatul unei experiențe poartă numele de eveniment.
Definiția 1.1.1. Dacă A și B sunt două evenimente atunci:
i) prin “ A sau B” notat A ∪ B întelegem eveniment realizat dacă și numai dacă cel puțin
unu dintre cele două evenimente se realizează.
2
ii) prin “ A sau B” notat A ∩ B întelegem eveniment realizat dacă și numai dacă ambele
evenimente se realizează.
iii) Prin “non A”, notat 𝐴𝐶 B întelegem eveniment realizat dacă și numai dacă A nu se
realizează.
Definiția 1.1.2. Numim “evenimentul sigur”, notat Ω, eveniment realizat în orice probă.
Definiția 1.1.3. Numim “evenimentul imposibil”, eveniment care nu se realizează în nici o probă.
Definiția 1.1.4. Numim “eveniment întâmplător” eveniment care poate să se producă sau nu în
orice probă.
Definiția 1.1.5. Fie A și B doua evenimente. Spunem că “A implică B” și scriem A ⸦ B atunci
cand realizarea lui A are ca efect realizarea lui B.
Definiția 1.1.6. Un eveniment A este elementar dacă B ⸦ A implică B=Ø sau B=A.
Definiția 1.1.7. Fie (𝐴𝑛 )n𝜖 N un șir de evenimente.
i) Prin “⋃∞
𝑛=1 𝐴𝑛 vom intelege un eveniment B care satisface conditiile prezentate in curs.
Ii) Prin ⋂∞
𝑛=1 𝐴𝑛 vom intelege evenimentul C care satisfice conditiile prezentate in curs.
i) A∪ 𝐵 = {𝜔𝜖Ω│Ω𝜖𝐴 𝑠𝑎𝑢 Ω𝜖 𝐵}
ii) A∩ 𝐵 = {𝜔𝜖Ω│Ω𝜖𝐴 𝑠𝑎𝑢 Ω𝜖 𝐵}
iii) Ac ={𝜔𝜖Ω│Ω𝜖𝐴 }
Definiția 1.1.9. Spunem că algebrele booleene ℐ și ℐ’ sunt izomorfe dacă există o aplicație
bijective I, h, de la ℒ la ℐ’ care satisfice condițiile:
i) (∀)𝐴, 𝐵𝜖 ℐ rezultă h(A∪ 𝐵)= h(A)∪ ℎ(𝐵);
ii) (∀)𝐴, 𝜖 ℐ rezultă h( Ac)=(h(A))c
Teorema 1.1.1. Orice algebră booleană ℐ este izomorfă cu o algebră de parți.
3
Teorema 1.1.2. Orice σ-algebra booleană este izomorfă cu o σ-algebră de parți.
Exercițiu 3:
Se consideră jocul cu zarul. La o aruncare a zarului apare fața cu i puncte i=1,2,3,4,5,6. Notăm 𝜔1
evenimentul apariției fetei cu I puncte.Definim mulțimea Ω={ 𝜔1, 𝜔2,….., 𝜔6} .Ω este evenimentul
sigur iar Ø=Ωc evenimentul imposibil. Mulțimea părților lui .Ω continue 26 elemente.
Fie B evenimentul care constă în extragerea unei bile negre în aceasta a doua extragere.
2
P(B)= 10, probabilitatea care nu depinde de faptul că evenimentul A s-a produs sau nu.
Două evenimente se numesc dependente dacă probabilitatea unuia dintre ele depinde de faptul că
celălalt eveniment s-a produs sau nu.
Fiind date două evenimente A și B, se numesc intersecție a acestor două evenimente , notate A ∩
B evenimentul care constă în producerea simultană a evenimentelor A și B.
În cazul a două evenimente incompatibile, intersecția lor este evenimentul imposibil.
4
Teoremă: Probabilitatea producerii simultane a evenimentelor independente A și B este egală cu
produsul probabilităților acestor evenimente:
P(A ∩ B)=P(A)P(B).
Consecintă: probabilitatea producerii simultane a mai multor evenimente independente în
totalitatea lor este egală cu produsul probabilitatilor acestor evenimente.
9. Probabilitate condiționate
Să considerăm doua evenimente A și B.
Se numește probabilitate condiționate a evenimentului B de către evenimentul A și se notează
PA(B), probabilitatea evenimentului B calculate în ipoteza ca evenimentul A s-a produs.
În exercitiul de evenimente dependente dat la pct. 7 avem
𝑏
PA(B)=𝑎+𝑏−1
𝑏−1
PcA(B)= 𝑎+𝑏−1
PA(B)=P(B), PB(A)=P(A),
De aici rezultă că, probabilitățile condiționate sînt egale cu cele necondiționate.
5
Să presupunem că evenimentele A și B sînt dependente.
Teoremă: Probabilitatea producerii simultane a două evenimente dependente A și B este egală
cu produsul dintre probabilitatea unuia dintre ele și probabilitatea condiționate de acesta a
celuilalt eveniment.
P(A∩B)=P(A) PA(B)
Exercitiu 5: Într-o urnă sînt 7 bile albe și 6 bile negre. Se extrag doua bile din urnă. Care este
probabilitatea ca prima bilă extrasă să fie albă iar cea de a doua bilă să fie neagră?
7
P(A)=13
6 1
PA(B)= =
12 2
7 1 7
P(A∩B)=P(A) PA(B)= 13 ∙ 2=26
6
În general se numește variabila aleatoare o mărime care în funcție de rezultatul unui experiment
poate lua o valoare dintr-o mulțime bine definită de valori
2. Variabile aleatoare discrete si variabile aleatoare continue
Se numește discretă o variabilă aleatoare care poate lua numai valori izolate Numărul valorilor
posibile ale unei variabile aleatoare discrete ξ poate fi finită sau infinită.
Se numește continua o variabilă aleatoare ale cărei valori posibile umplu un interval finit sau
infinit. Evident numărul valorilor posibile ale unei variabile aleatoare continue este întodeauna
infinit.
3. Repartiția unei variabile aleatoare discrete
Se numește repartiție a unei variabile aleatoare discrete enumerarea valorilor posibile ale variabilei
aleatoare și a probabilităților corespunzătoare acestora.
De obicei repartiția unei variabile aleatoare discrete se scrie sub forma unui tablou în care prima
linie contine toate valorile posibile iar a doua linie probabilitatile corespunzatoare.
𝑥1 𝑥2 … . . 𝑥𝑛 𝑥𝑖
ξ :(𝑝 𝑝2 … . . 𝑝𝑛 ) pe scurt ξ:(𝑝𝑖 ),1≤i≤n.
1
𝑥𝑘 𝑥2𝑘 … . 𝑥𝑛𝑘
𝜉 𝑘 :( 𝑖 )
𝑝1 𝑝2 … . 𝑝𝑛
Definim suma și produsul a doua variabile
𝑥1 𝑥2 … . . 𝑥𝑛 𝑦1 𝑦2 … . . 𝑦𝑛
ξ :(𝑝 𝑝2 … . . 𝑝𝑛 ) si η: ( 𝑝1′ ′ )
𝑝2′ … . . 𝑝𝑚
1
Suma:∑𝑛𝑖=1 ∑𝑚
𝑗=1 𝑝𝑖𝑗 = 1
5. Repartiția binomială.
𝑛 𝑛 − 1…..𝑘……0
𝜉(𝑛) : ( ).-aceasta este repartiția binomială
𝑝𝑛 𝑛𝑝𝑛−1 𝑞 … 𝐶𝑛𝑘 𝑝𝑘 𝑞 𝑛−𝑘 … 𝑞 𝑛
7
Am văzut că repartiția unei variabile aleatoare discrete caracterizează această variabilă. În aceste
cazuri pentru caracterizarea variabilei aleatoare ne mulțumim să folosim anumite mărimi numite
valori tipice asociate variabilei aleatoare.
Valoarea medie este suficientă pentru rezolvarea multor probleme.
Prin def valoarea medie unei variabile aleatoare cu repartiția
𝑥1 𝑥2 … . 𝑥𝑛
ξ :(𝑝 𝑝2 … 𝑝𝑛 )
1
8.Proprietățile mediei
Proprietatea 1. Media unei constante a este egală cu a։
M(a)=a.
Demonstrație. Constanta a poate fi considerată ca o variabilă aleatore discretă care ia o singură
valoare a cu probabilitatea p=1. Prin urmare
M(a)=a∙ 1=a.
Proprietatea 2. Media produsului dintre o canstantă a și o variabilă aleatoare ξ este egală
cu produsul dintre a și media lui ξ:
M(a ξ)=aM(ξ)
Demonstrație: Am vazut (ꝣ 2.4) că dacă variabila aleatoare are repartiția
𝑥1 𝑥2 … . 𝑥𝑛
ξ :(𝑝 𝑝2 … 𝑝𝑛 )
1
8
𝑎𝑥1 𝑎𝑥2 … . 𝑎𝑥𝑛
aξ :( 𝑝 𝑝2 … 𝑝𝑛 )
1
Prin urmare
M(a ξ)=𝑎𝑥1 𝑝1 + 𝑎𝑥2 𝑝2 … + 𝑎𝑥𝑛 𝑝𝑛 =a(𝑥1 𝑝1 + 𝑥2 𝑝2 + ⋯ + 𝑥𝑛 𝑝𝑛 ) = aM(ξ)
Proprietatea 3. Media sumei a două variabile aleatoare este agală cu suma mediilor celor doua
variabile aleatoare:
M(ξ+η)=M(ξ)+M(η).
Exercitiu 7: Să se găsească media numărului de puncte obținute la aruncarea a două zaruri. Să
notăm cu ξ nr de puncte ce se obține prin aruncarea primului zar și cu η nr de puncta ce se obține
prin aruncarea celui de al doilea zar. Evident, ξ și η sînt variabile aleatoare care pot lua valorile
2,4,3,7,8 și 6 și dacă zarurile sînt omogene, ξ și η au fiecare repartiția
2 4 3 7 8 6
(1 1 1 1 1 1).
6 6 6 6 6 6
Prin urmare
1 1 1 1 1 1
M(ξ)=M(η)=2∙ 6 + 4 ∙ 6 + 3 ∙ 6 + 7 ∙ 6 + 8 ∙ 6 + 6 ∙ 6 =5
M(ξ+η)=M(ξ)+M(η)=5+5=10.
9
Însă valorile lui ξ nu diferă cu mult de media sa, pe cand valorile lui η diferă foarte mult de
media sa.
Formula dispersiei este următoarea:
𝐷2 (𝜉) = 𝑀(𝜉 2 ) − 𝑀2 (𝜉).
Disperia este diferența dintre media pătratului variabilei aleatoare și pătratul mediei variabilei
aleatoarel.
Exercitiu 8:
1 4 3
ξ :( )
0,1 0,3 0,5
și am obținut M(ξ)=2,8. Pentru a calcula disperia lui ξ să observam că repartiția lui 𝜉 2 este
1 16 9
𝜉 2 :( ), si deci
0,1 0,3 0,5
M(𝜉 2 )=1∙ 0,1 + 16 ∙ 0,3 + 9 ∙ 0,5 =9,4
𝐷2 (𝜉) = 𝑀(𝜉 2 ) − 𝑀2 (𝜉)=9,4-7,84=1,56
√𝐷2 (ξ)=D(ξ)
12. Variabile aleatoare independente cu aceeași repartiție
𝜎
D(𝜂̅ )= ∙ 𝑎 ∙ 𝑚 ∙ 𝑝.
√𝑛
11
𝜇4 = 𝛼4 − 4𝛼3 𝛼1 + 6𝛼2 𝛼12 − 3𝛼14
14. Funcția de repartiție a unei variabile aleatoare
Am văzut că o variabila aleatoare discrete este caracterizată de repartiția ei. Acest mod de
a ne da o variabilă aleatoare nu este general, el nefiind valabil pentru variabilele aleatoare continue.
Întradevăr să consideram o variabila aleatoare ξ ale cărei valori posibile umplu un interval (a,b).
Funcția F(x) definite ca probabilitatea evenimentului (ξ<x)
F(x)=P(ξ<x),
se numește funcție de repartiție a variabilei aleatoare ξ.
O variabilă aleatoare se numește continuă dacă functia ei de repartiție F(x) este continuă.
15.Proprietățile funcției de repartiție
Proprietatea 1. Valorile funcției de repartiție aparține segmentului [0,1]:
0≤ 𝐹(𝑥) ≤ 1
Demonstrație: Această proprietate rezultă din definiția întrucât probabilitatea este un număr
negativ care nu depășește unitatea.
12
Propietatea 3: Pentru x≤a, ordonatele graficului sunt nule, iar pentru x>b, ordonatele graficului
sunt egale.
Funcția de repartiție a unei variabile discrete
3 5 2
( )
0,1 0,4 0,5
x≤2, F(x)=0 propietatea 3
2<x≤3, F(x)=0,5, unde ξ ia valoarea 2.
Fig 1 Fig 2
3<x≤5, F(x)=0,5+0,1=0,6, deoarece evenimentul ξ<x constă din aceea că ξ ia valoarea 2 sau 3.
Dca x>5, F(x)=1. Graficul lui F(x) este redat in fig 2.
17. Densitatea de probabilitate
Se numește densitate de probabilitate prima derivare ( dacă există) a funcției de repartiție
F(x):
f(x)=F’(x).
Prin definiție rezultă că f(x)≥0, ca derivată a unei funcții nedescrescătoare și ca funcția de
repartiție F(x) este o primitivă a densitătii de probabilitate f(x).
Teorema. Probabilitatea ca variabila aleatoare continua ξ să ia o valoare din intervalul
(x1, x2) este egală cu integrala densității de probabilitate pe intervalul (x1, x2):
𝑥
P(x1<ξ<x2)=∫𝑥 2 𝑓(𝑥) 𝑑𝑥.
1
13
(𝑥−𝑚)2
1 −
f(x; m, σ)=𝜎√2𝜋 𝑒 2𝜎2 , −∞ < 𝑥 < ∞
După forma sa ea aparține tipului 1 de curbe Pearson. Evident , f(x) este o densitate de
probabilitate întrucât
1
∫0 𝑥 𝑚−1 (1 − 𝑥)𝑛−1 𝑑𝑥 =B(m,n)
În particular
𝑚 𝑚(𝑚+1)
𝛼1 = 𝑚+𝑛 , 𝛼2 = (𝑚+𝑛)(𝑚+𝑛+1)
Rezultă
𝑚𝑛
𝜇2 = 𝛼2 − 𝛼12 =
(𝑚 + 𝑚)2 (𝑚 + 𝑛 + 1)
14
Teorema 3. Dacă variabilele aleatoare independente ξ1 și ξ2 aparțin respectiv claselor ϒ(m) și
𝜉1
ϒ(n), atunci variabila η=𝜉 aparțin clasei 𝛽(m,n).
1 +𝜉2
4. Repartiția ϒ2
Repartiția ϒ2 este definită prin densitatea de probabilitate
𝑠 𝑥
1 −
f(x)= 𝑠
𝑠
𝑥 2−1 𝑒 2𝜎2 , 0≤x<∞
22 𝜎𝑠 Г( )
2
unde s este un număr natural dat numit numărul gradelor de libertate iar σ>0 un numar dat.
Se verifică imediat că
∞
∫ 𝑓(𝑥) 𝑑𝑥 = 1
0
Densitatea de probabilitate aparține tipului 3 de curbe Pearson. Vom nota H(s,σ) mulțimea
tuturor variabilelor aleatoare a căror densitate de probabilitate este dată de variabila aleatoare.
1
Pentru m natural, H(2𝑚, )=ϒ(m).
√2
5. Repartiția student
Repartiția student este definită prin densitatea de probabilitate
𝑠+1 𝑠+1
Г( ) −
2 𝑥2 2
f(x)= 𝑠 (1 + ) , −∞ < 𝑥 < ∞
√𝜋𝑠 Г(2) 𝑠
Chiar dacă dispunem despre fiecare variabilă aleatore de informații modeste, cu greu
putem satbilii legea după care se comportă media aritmetică a unui număr suficient de mare de
variabile aleatoare.
Teoremele din cadrul studiului cu denumirea comuna de legea numerelor mari,
2.Inegalitatea lui Cebisev
Inegalitatea lui Cebisev este adevărată atât pentru variabilele aleatoare discrete
cât și pentru cele continue.
16
𝐷 2 (𝜉)
P(|𝜉 − 𝑀(𝜉)| < 𝜀) ≥ 1 − 𝜉2
Pentru practică , inegalitatea lui Cebisev are o importanță limitată deoarece da o evaluare
grosolană.
Întrucât demonstrația este foarte grea, vom arăta că teorema lui Bernoulli este un caz particular al
teoremei lui Cebisev.
Avem variabilele aleatoare:
𝛏1- numarul de apariții al evenimentului A în primul experiment ( poate fii 1 sau 0)
𝛏2- numarul de apariții al evenimentului A în al doilea experiment
……
17
𝛏n- numarul de apariții al evenimentului A în al n-lea experiment
𝜈= 𝛏1+ 𝛏2+… + 𝛏n
Fiecare dintre acestea are repartiția
1 0
( ), q=1-p
𝑝 𝑞
Conform teoremelor de la 2.8 și 2.10 avem:
M(𝛏1 )= M(𝛏2 )=…= M(𝛏n )=p
𝐷2 (𝛏1)= 𝐷2 (𝛏2)=…= 𝐷2 (𝛏n)=pq
1
Cum pq≤ 4
Vrecvența relativă se va deosebi oricât de puțin de probabilitatea p atunci când n este suficient de
mare. Frecvența relativă tinde în probabilitate către p.
Teorema lui Bernoulli explică stabilitatea frecvenței relative pentru un număr mare de
experimente.
18
Prin repartiția unui vector aleator bidimensional discret vom întelege enumerarea
valorilor posibile ale vectorului adică a perechilor de numere reale (𝑥𝑖 , 𝑦𝑖 ) și a probabilităților 𝑝𝑖𝑗
corespunzătoare 1≤ 𝑖 ≤ 𝑛, 1≤ 𝑗 ≤ 𝑚.
Întrucât evenimentul ( 𝛏=𝑥𝑖 , η=𝑦𝑗 ) 1≤ 𝑖 ≤ 𝑛, 1 ≤ 𝑗 ≤ 𝑚 formeză un sistem
complet de evenimente, suma tuturor probabilităților din căsuțele tabloului este egală cu 1.
Întradevăr evenimentele
( 𝛏=𝑥1 , η=𝑦1 ), ( 𝛏=𝑥1 , η=𝑦2 ), …, ( 𝛏=𝑥1 , η=𝑦𝑚 )
Sunt incompatibile și deci probabilitatea p1 ca 𝛏 să ia valoarea x1 este egală cu
P1=P11+P12+…+P1m
Vedem astfel că probabilitatea ca 𝛏 să ia valoarea x1 este egală cu suma probabilităților din
coloana x1.
lim 𝐹(𝑥, 𝑦) = 0
𝑥→−∞
lim 𝐹(𝑥, 𝑦) = 1
𝑥→∞
𝑦→−∞ 𝑦→∞
19
𝐹1 (𝑥) = lim 𝐹(𝑥, 𝑦)
𝑦→∞
20
̅̅̅̅̅
X=(X1,X2, …,Xn ):Ω→ℝn, ale cărei componente Xi :Ω→ℝ, i=1, 𝑛, sunt variabile aleatoare reale.
Dacă X=(X1,X2, …,Xn ):Ω→ℝn este o variabila aleatoare și x1,x2, …,xn →ℝn ,
atunci
{𝜔 ⎸X1(𝜔)<x1,…,xn(𝜔)<xn}=⋂𝑛𝑖=1{𝜔⎸𝑋𝑖 (𝜔)<𝑥𝑖 }, este un eveniment din k și se poate exprima și
sub forma
{𝜔 ⎸X1(𝜔)<x1,…,xn(𝜔)<xn}=⋂𝑛𝑖=1 𝑋𝑖−1 (−∞, 𝑥𝑖 ) adică intersecția preimaginilor prin Xi a
̅̅̅̅̅
semidreptelor (−∞, 𝑥𝑖 ), i=1, 𝑛
Definiția 2.3.1. Dacă F:ℝn→ℝ definite prin:
F(x1,…,xn)=P(X1<x1,…, Xn<xn), pentru orice (x1,….,xn)𝜖ℝn se numește funcție de repartiție a
variabilei aleatoare X=(X1,…,Xn ):Ω→ ℝn
Propozitia 2.3.1. Dacă F:ℝn→ℝ este funcție de repartiție a vectorului aleator X:Ω→ℝ atunci:
i)𝑥lim
→∞
𝐹(𝑥1 , … , 𝑥𝑛 ) = 1
𝑖
̅̅̅̅̅
i=1,𝑛
21
𝐹𝑖1 …𝑖𝑛 (𝑥𝑖1 , . . , 𝑥𝑖𝑛 ) = lim 𝐹(𝑥𝑖1 , … , 𝑥𝑖𝑛 )
𝑥𝑗 →∞
𝑗∉{𝑖1 ,..,𝑖𝑛
Propoziția 2.4.3. Dacă f:ℝn→ℝ este densitatea de repartiție a vectorului aleator X=(X1,..,Xn)
atunci densitatea marginala în raport cu componenta Xi notată fi(xi), xi𝜖ℝ este:
. 𝑛
22
Dacă are loc (***) atunci
𝑋 𝑥 𝑥
F=(𝑥1 , … . , 𝑥𝑛 )=∫−∞ 1 𝑛
… ∫−∞ f(𝑦1 , … . , 𝑦𝑛 ) 𝑑𝑦1 ∙ … ∙ 𝑑𝑦𝑛 = ∏𝑛𝑖=1 ∫−∞
𝑖
. 𝑓𝑖 (𝑦𝑖 )=∏𝑛𝑖=1 𝐹𝑖 (𝑥𝑖 ) pentru
orice (𝑥1 , … . , 𝑥𝑛 ) ∈ ℝ𝑛 și deci variabilele aleatoare 𝑋1 , . , 𝑋𝑛 sunt independente ( propozitia 2.5.2)
Fie I o familie arbitrară de indici (Ω,K, P) un camp borelian de probabilitate și variabile
aleatoare Xi :Ω→ℝ, i ∈ I
Definiția 2.5.3. Spunem că variabilele aleatoare (Xi, i ∈ I) sunt mutual independente dacă, pentru
orice i,j∈ I, i≠j, variabilele aleatoare Xi și Xj sunt independente.
iii) Distingem două cazuri după cum k este par și impar. Pentru k=2p, p∈ ℕ∗ avem:
∅, 𝑥 ≤ 0
{𝜔| 𝑋 𝑘 (𝜔) < 𝑥}={ 𝑘 𝑘
{𝜔| − √𝑥 < 𝑋(𝜔) < √𝑥 }, 𝑥 > 0
23
Eveneimentele din membrul al doilea fiind din k rezultă că pentru, pentru k par, 𝑋 𝑘 este variabilă
aleatoare. Pentru k=2p+1 , p∈ ℕ∗ mulțimea:
iv) Avem
∅, 𝑥 ≤ 0
{𝜔| √𝑋(𝜔) < 𝑥}={
{𝜔| 𝑋(𝜔) < 𝑥 2 }, 𝑥 > 0
Lema 2.6.1. Dacă X și Y sunt două variabile aleatoare definite pe același câmp borelian de
probabilitate (Ω,K, P), atunci pentru orice a∈ ℝ mulțimile:
i) {𝜔| 𝑋(𝜔) < 𝑌(𝜔) + 𝑎}
ii) {𝜔| 𝑋(𝜔) ≤ 𝑌(𝜔) + 𝑎}
iii) {𝜔| 𝑋(𝜔) = 𝑌(𝜔) + 𝑎}
Sunt evenimente din K
Propoziția 2.6.2. Dacă X și Y sunt variabile aleatoare, definite pe același câmp de probabilitate
(Ω,K, P), atunci:
i) X-Y;
ii) X+Y;
iii) X∙Y;
𝑋
iv) , Y≠0;
𝑌
v) 𝑚𝑎𝑥{𝑋, 𝑌};
vi) 𝑚𝑖𝑛{𝑋, 𝑌}
Sunt variabile aleatoare
Demonstrație.
i. Vom ține cont de formulele de mai sus de la Lema. Pentru orice a∈ ℝ:
{𝜔| 𝑋(𝜔) − 𝑌(𝜔) < 𝑎}= {𝜔| 𝑋(𝜔) < 𝑌(𝜔) + 𝑎} ∈K și deci X-Y este variabilă
aleatoare
ii. Y fiind variabilă aleatoare, (-1)Y=-Y este variabilă aleatoare. Aplicând i) rezultă că
X+Y=X-(-1)Y este variabilă aleatoare
iii) Conform punctelor precedente X-Y și X+Y sunt variabile aleatoare. Aplicând 2.6.1
iii) rezultă că (X-Y)2 și (X+Y)2 sunt variabile aleatoare și deci diferența lor (X+Y)2-
(X-Y)2 este variabilă aleatoare
1
Aplicând 2.6.1 i) rezultă că [(𝑋 + 𝑌)2 − (𝑋 − 𝑌)2 ]=XY
4
1
iv) Variabila aleatoare Y fiind diferită de 0 rezultă că 𝑌 este variabilă aleatoare. Din
1 𝑋
rezultatul precedent rezultă X∙ 𝑌 = 𝑌 este variabilă aleatoare.
v) Pentru orice x∈ ℝ avem
24
{𝜔|𝑚𝑎𝑥{𝑋(𝜔), 𝑌(𝜔)} < 𝑥}}={𝜔| 𝑋(𝜔) < 𝑌(𝜔) < 𝑥} = {𝜔| 𝑋(𝜔) < 𝑥} ∩ {𝜔| 𝑌(𝜔) < 𝑥} ∈K
Propoziția 2.7.1. Dacă funcția este continuă și strict crescătoare pe I atunci aplicația (2.7.1) este
o variabilă aleatoare și, pentru orice y , are loc egalitatea
Demonstrație
25
Corolar 2.7.1. Fie 𝑥: 𝛺 → ℝ o variabilă aleatoare 𝑥(𝛺) = 𝐼 ș𝑖 𝑓𝑖𝑒
𝐷𝑎𝑐ă:
1. Funcția de repartiție Fx este derivabilă cu derivată continuă pe Int I
2. este derivabilă cu derivata continuă pe Int I
3. este strict monotonă pe I, atunci densitatea de repartiție a variabilei aleatoare
∏𝑛𝑖=1 𝑑𝑥𝑖
𝑖≠𝑗
Propoziția 2.8.3. Dacă vectorul aleator (X,Y) are densitatea de repartiție , notată fx,y(x,y),
(x,y)∈ (𝑋, 𝑌)(𝛺)=I× 𝐽 ⊂ ℝ2 si B={𝜔|𝑦(𝜔)𝜖[𝑦 ⋅ 𝑦 + 𝑑𝑦]} atunci funcția de repartiție a variabilei
Demonstrație
P(X(ω) < x, Y(ω) ∈ [y, y + dy))
FX⎸Y (x⎸y) =
P(Y(ω) ∈ [y, y + dy))
Deoarece P(Y(ω) ∈ [y, y + dy))=𝑓𝑦 (𝑦)𝑑𝑦 si
𝑥
P(X(𝜔) < 𝑥, 𝑌(𝜔) ∈ [𝑦, 𝑦 + 𝑑𝑦)) = ∫−∞ 𝑃(𝑋(𝜔) ∈ [𝑢, 𝑢 + 𝑑𝑢), 𝑌(𝜔) ∈ [𝑦, 𝑦 + 𝑑𝑦)) ∙ 𝑑𝑢 =
𝑥 𝑥
∫−∞ 𝑓𝑋,𝑌 (𝑢, 𝑦) ∙ 𝑑𝑢 ∙ 𝑑𝑦 = [∫−∞ 𝑓𝑋,𝑌 (𝑢, 𝑦) ∙ 𝑑𝑢] ∙ 𝑑𝑦
-se obține (2.8.11)i si astfel derivând in raport cu x in ambii membrii ai egalități (2.8.11) se
obține (2.8.11) ii.
a
Propoziția 2.8.4. Dacă vectorul aleator (X,Y) are densitatea de repartiție
𝑓𝑥,𝑦 (𝑥, 𝑦), (𝑥, 𝑦) ∈ (𝑋, 𝑌)(𝛺) = 𝐼 × 𝐽 si B={𝜔|X(𝜔) ∈ [𝑥, 𝑥 + 𝑑𝑥)}, atunci funcția de repartiție a
variabilei aleatoare Y condiționat de B notata 𝐹𝑌|𝑋 (𝑥|𝑦) este data de ∶
𝑥
∫ 𝑓𝑋,𝑌 (𝑥, 𝑣)𝑑𝑣
𝐹𝑌|𝑋 (𝑥|𝑦) = −∞ , 𝑦 ∈ ℝ, 𝑥 ∈ Int I
𝑓𝑋 (𝑥)
Iar densitatea de repartiție , notată 𝑓𝑌|𝑋 (𝑥|𝑦), este data de ∶
27
𝑓𝑌|𝑋 (𝑥|𝑦)
𝑓𝑌|𝑋 (𝑥|𝑦) = , 𝑦 ∈ 𝐽, 𝑥 ∈ Int I
𝑓𝑋 (𝑥)
Demonstrație. Se procedează ca la propoziția 2.8.3.
Definiția 3.1.1. Numim media varibilei aleatore X, notată M(X), numarul :
i) M(X)=∑𝑛𝑖=1 𝑥𝑖 ∙ 𝑃(𝑋 = 𝑥𝑖 );
.
ii) M(X)=∫ℝ 𝑥 ∙ 𝑓(𝑥) ∙ 𝑑𝑥
28
Din această definiție rezultă că momentul inițial de ordinul k (k∈ ℕ∗ ) al variabilei
aleatoare X este media variabilei aleatoare 𝜑(𝑋)=𝑋 𝑘
.
Mk=M(Xk)=∫ℝ x k ∙ dF(x) , in care M(X k ) se exprimă sub una din formele:
n
Definiția 3.2.2. Numim moment inițial absolut de ordinal k media variabilei aleatoare
k
|X |, notat αk .
.
Prin urmare αk = 𝑀(|𝑋 𝑘 |) = ∫ℝ|𝑥 𝑘 | ∙ 𝑑𝐹(𝑥) , dacă integrala Stieltjes din membrul al doilea este
convergentă.
Propoziția 3.2.1. Dacă există 𝑀(|𝑋 𝑘 |), atunci exista și M(Xk) și are loc inegalitatea
|𝑀(𝑋 𝑘 | ≤ 𝑀(|𝑋 𝑘 |)
.
Demonstrație. Din ipoteza rezultă că integrala ∫ℝ|x k | ∙ dF(x)este convergenta . Din
. .
inegalitatea |∫ℝ 𝑥 𝑘 ∙ 𝑑𝐹(𝑥)| ≤ ∫ℝ|𝑋 𝑘 | ∙ 𝑑𝐹(𝑥)
Finite
Definiția 3.3.1. Variabila aleatoare Y:Ω→ ℝ definite prin Y(𝜔) = 𝑋(𝜔) − 𝑚, 𝜔 ∈ 𝛺,
care se numește abatere față de medie
Definiția 3.3.2. Numim moment centrat de ordinal k al variabilei aleatoare X , notat
.
𝜇𝑘 (𝑋) = 𝑀⌊(𝑋 − 𝑚)𝑘 ⌋ = ∫ℝ(𝑥 − 𝑚)𝑘 ∙ 𝑑𝐹(𝑥)
𝑚𝑠 = 𝑀(𝑋 𝑠 ), 𝑠 = ̅̅̅̅̅
1, 𝑘
Demonstrație
29
𝑘 𝑘
𝜇𝑘 (𝑋) = 𝑀[(𝑋 − 𝑚)𝑘 ] = 𝑀 [∑(−1)𝑠 ∙ 𝐶𝑘𝑠 ∙ 𝑋 𝑘−𝑠 ∙ 𝑚 𝑠 ] = ∑(−1)𝑠 ∙ 𝐶𝑘𝑠 ∙ 𝑀(𝑋 𝑘−𝑠 ) ∙ 𝑚 𝑠
𝑠=0 𝑠=0
𝜎𝑥 = √𝐷2 (𝑋)
Definiția 3.4.3. Numim normală orice variabilă aleatoare cu media egală cu zero și dispersia
egală cu 1
Dacă X este o variabilă aleatoare cu media și dispersia finite, atunci variabila aleatoare:
𝑋(𝜔)−𝑚
Z(Ω)= , 𝜔 ∈ 𝛺 este o variabila aleatoare normala in sensul definitiei 3.4.3.
√𝐷 2 (𝑋)
1
Într-adevar M(Z)= ∙ 𝑀(𝑋 − 𝑚) = 0 si
√𝐷 2 (𝑋)
1 1
𝐷2 (𝑋) = 𝑀(𝑍 2 ) = ∙ 𝑀[(𝑋 − 𝑚)2 ] = ∙ 𝐷2 (𝑋) = 1
𝐷2 (𝑋) 𝐷2 (𝑋)
Propoziția 3.4.1. Proprietățile dispersiei sunt:
i) Dacă X( )=c, 𝜔 ∈ 𝛺 atunci 𝐷2 (𝑋) = 0
ii) Dacă X este o variabilă aleatoare cu dispersia 𝐷2 (𝑋) finite si a∈ ℝ atunci
𝐷2 (𝑎 ∙ 𝑋) = 𝑎2 ∙ 𝐷2 (𝑋);
iii) Dacă X și Y sunt variabile aleatoare independente definite pe același câmp de
probabilitate atunci 𝐷2 (𝑋 ± 𝑌) = 𝐷2 (𝑋) + 𝐷2 (𝑌)
Propoziția 3.4.2. Dacă densitatea de repartiție f(x), x∈ ℝ a variabilei aleatoare X este simetrică
față de x=m atunci momentele centrate de ordin impar sunt nule.
30
Definiția 4.1.1. Aplicația 𝜑: ℝ → ℂ, definite prin:
𝜑(𝑡) = 𝑀(𝑒 𝑖⋅𝑡⋅𝑥 ) = ∫ℝ 𝑒 𝑖⋅𝑡⋅𝑥 ⋅ 𝑑𝐹 (𝑥), se numește funcție caracteristică a variabilei aleatoare X.
Propoziția 4.1.1. Funcția caracteristică 𝜑(𝑡), t∈ℝ, a variabilei aleatoare X verifică urmatoarele
proprietăți:
i) 𝜑(0) = 1
ii) |𝜑(𝑡)| ≤ 1 oricare ar fi t∈ℝ
iii) 𝜑(−𝑡) = ̅̅̅̅̅̅
𝜑(𝑡)
iv) 𝜑 este uniform continuua pe ℝ
Demonstrație:
i) Pentru t=0, din (4.1.1.) rezultă 𝜑(0) = 𝑀(𝑒 0 ) = 1
ii) |𝜑(𝑡)| = |∫ℝ 𝑒 𝑖⋅𝑡⋅𝑥 ⋅ 𝑑𝐹 (𝑥)| ≤ ∫ |𝑒 𝑖⋅𝑡⋅𝑥 | ⋅ 𝑑𝐹 (𝑥) = ∫ℝ 𝑑𝐹 (𝑥) = 1 deoarece
ℝ
iii) Avem 𝜑(𝑡) = ∫ℝ 𝑒 𝑖⋅𝑡⋅𝑥 ⋅ 𝑑𝐹 (𝑥) =⋅ ∫ℝ. [cos(𝑡 ⋅ 𝑥) + 𝑖 ⋅ sin(𝑡 ⋅ 𝑥)] ⋅ 𝑑𝐹(𝑥) si
̅̅̅̅̅
Propoziția 4.1.2. Dacă Xk, k=1, 𝑛, sunt variabile aleatoare independente cu funcțiile
caracteristice
Propoziția 4.1.3. Dacă variabila aleatoare X are funcția caracteristică 𝜑𝑋. (𝑡), 𝑡𝜖ℝ atunci
variabila aleatoare 𝑎 ⋅ 𝑥, 𝑎 ∈ ℝ are funcția caracteristică 𝜑𝑎∙𝑋. (𝑡)=𝜑𝑋. (𝑎 ∙ 𝑡)
Propoziția 4.1.4. Dacă variabila aleatoare X are momentul initial absolut de ordinal k finit
atunci:
31
ⅆ 𝑠 𝜑(𝑡)
| ̅̅̅̅
= 𝑖 𝑠 ⋅ 𝑚𝑠 = 𝑖 𝑠 ⋅ 𝑀(𝑥 𝑠 ), s=1 ,𝑘
ⅆ𝑡 𝑠 𝑡=0
Corolarul 4.1.1. Dacă variabila aleatoare X admite momente inițiale de orice ordin atunci:
(𝑖⋅𝑡)𝑘
𝜑𝑋 (𝑡)=∑∞
𝑘=0 𝑚𝑘 ⋅ , pentru orice t din intervalul de absolut convergență al seriei din membrul
𝑘!
al doilea
∞ ∞
𝑡𝑘 ⅆ𝑘 𝜑(0) 𝑡𝑘
Demonstrație. ∑ ⋅ =∑ ⋅ 𝑖 𝑘 ⋅ 𝑚𝑘 , în care suma seriei este egală cu 𝜑𝑋 (𝑡)
𝑘=1 𝑘! ⅆ𝑡 𝑘 𝑘⋅=0 𝑘!
pentru orice t din intervalul de convergență.
32
𝑠𝑖𝑛(ℎ⋅𝑡) 𝑠𝑖𝑛(ℎ⋅𝑡)
Deoarece 𝑙𝑖𝑚 = 1 uniform în raport cu t pe ℝ avem: 𝑙𝑖𝑚 ∫ ⋅ 𝑒 −𝑖𝑡𝑥 ⋅ 𝜑(𝑡) ⋅ 𝑑𝑡 =
ℎ→0 ℎ⋅𝑡 ℎ→𝑜− ℎ⋅𝑡
∞
sin(ℎ⋅𝑡) ∞
∫ [𝑙𝑖𝑚 ] ⋅ 𝑒 −𝑖𝑡𝑥 ⋅ 𝜑(𝑡) ⋅ 𝑑𝑡 = ∫−∞ 𝑒 −𝑖𝑡𝑥 ⋅ 𝜑(𝑡) ⋅ 𝑑𝑡
ℎ⋅𝑡
−∞ ℎ→0
ⅆ𝑠 𝑦(𝑡)
Demonstrație = ∫ℝ 𝑒 𝑡𝑥 ⋅ 𝑥 𝑠 ⋅ 𝑑𝐹 (𝑥) de unde
ⅆ𝑡 𝑠
ⅆ 𝑠 𝑔(𝑡)
| ̅̅̅̅̅
=∫ℝ 𝑥 𝑠 ⋅ 𝑑𝐹 (𝑥)=M(𝑥 𝑠 ), pentru s=1, 𝑘
ⅆ𝑡 𝑠 𝑡=0
̅̅̅̅̅
Propoziția 4.2.2. Dacă Xk , k=1, 𝑛, sunt variabile aleatoare independente atunci
𝑛
funcția generatoare a sumei Y=∑𝑘=1 𝑋𝑘 este
𝑛
Demonstrație
𝑛 𝑛
𝑡𝑌 ) 𝑡𝑋𝑘
𝑔𝑦 (𝑡) = 𝑀(𝑒 = 𝑀 (∏ 𝑒 ) = ∏ 𝑀(𝑒 𝑡𝑋𝑘 )
𝑘=1 𝑘=1
33
Prin definiția momentului de selecție de ordinul r este variabila aleatoare
𝜉1𝑟 + ⋯ + 𝜉𝑛𝑟
𝛼𝑟 =
̅̅̅
𝑛
În particular media de selecție este variabila aleatoare
𝜉1𝑟 + ⋯ + 𝜉𝑛𝑟
𝛼𝑟 = 𝜉 ̅ =
̅̅̅
𝑛
Momentul centrat de selecție de ordinul r este variabila aleatoare
𝑟 𝑟
(𝜉 − 𝜉 ̅) + ⋯ + (𝜉𝑛 − 𝜉 ̅)
𝜇𝑟 =
̅̅̅
𝑛
Teorema 1. Dacă repartiția teoretică are media m și dispersia 𝜎 2 , atunci media și
𝜎2
dispersia mediei de selecție 𝜉 ̅ sânt respectiv m si . 𝑛
1 𝜌
(∑𝑛
𝑘=1 𝜌𝑘 )3 2⁄
𝑟 3
lim 1 .= lim 𝜎 = 0, teorema lui Leapunov (teorema 2, cap viii, §1, 3) ne
𝑛→ 𝑛→∞
(∑𝑛 2 2
𝑘=1 𝜎𝑘 )
1
𝑛 ⁄2
.
permite să enunțăm
Teorema 2. Dacă există valorile
𝑀(𝜉) = 𝑚, 𝑀(𝜉 − 𝑚)2 = 𝜎 2 ≠ 0 si 𝑀(|𝜉 − 𝑚|3 ),
𝜉̅ −𝑚
atunci variabila aleatoare 𝜎 este asimptotic normală N(0,1)
√𝑛
Teorema 3. Dacă 𝜉 apartine clasei N(m, 𝜎), media de selecție 𝜉 ̅ aparține clasei
σ
N(m, )
√n
34
Teorema 6. Avem
2
𝜇2𝑟 − 𝜇𝑟2 − 2𝑟𝜇𝑟−1 𝜇𝑟+1 + 𝑟 2 𝜇𝑟 𝜇𝑟−1 1
𝐷2 ̅̅̅̅̅̅
(𝜇𝑟 ) = + 𝑜 ( 2)
𝑛 𝑛
Se poate demonstra folosind aceleași metode ca în cazul s=1 urmatoarele teoreme
Teorema 1.Din momentele mj și M(𝜉(𝑗) 𝜉(𝑘) ), 1 ≤ 𝑗, 𝑘 ≤ 𝑠, există atunci
𝑛
∑ 𝜉𝑖𝑗
𝑗=1
𝜉𝑖̅ =
𝑛
Este o funcție de estimație absolut corectă a lui mi, 1≤ 𝑖 ≤ 𝑠.
2
𝑀(𝜉(𝑖) )
Se găsește M(𝜉̅̅̅̅̅
(𝑖) ) =mi 𝑛
35
Egalitatea are loc numai în cazul în care 𝑙𝑛 𝑓 (𝑥, 𝜃) are forma particulară
𝑙𝑛 𝑓(𝑥, 𝜃) = 𝐴` (0)[𝐿(𝑥) − 𝜃] + 𝐴(𝜃) + 𝑁(𝑥).
36
Ln f(x, 𝜃)=𝐴1 (𝜃)𝜓1 (𝑥) + 𝐴0 (𝜃) + 𝜓0 (𝑥)
Orice funcție de estimație suficientă a parametrului 𝜃 este o funcție de ∑𝑛𝑖=1 𝜓1 (𝜉𝑖 ).
𝐹(𝑥1 … 𝑥𝑛 ) = 𝜙 [∑ 𝜓1 (𝑥𝑗 )]
𝑖=1
𝐴′0 (𝜃)
Din ec (***) obținem ∑𝑛𝑖=1 𝜓1 (𝑥𝑖 ) = −𝑛
𝐴′1 (𝜃)
37
1 𝜕3 𝑙𝑛 𝑝
b) [ ] , , converge în probabilitate către o valoare finită B
𝑛 𝜕𝜃3 𝜃=𝜃∗ (𝜉1 ,⋯,𝜉𝑛 )
38
𝜕 𝜈 𝑛−𝜈
𝑙𝑛 𝑝𝜈 ⋅ 𝑞 𝜂−𝑣 = − =0
𝜕𝑝 𝑝 𝑞
𝜈 𝑥1 … 𝑥𝑛
𝑝= =
𝑛 𝑛
𝜉1 +⋯+𝜉𝑛
Vom arăta că 𝜃 ∗ = , este o funcție de estimație eficientă pentru parametrul p.
𝑛.
𝑝𝑖 (𝑝) = 𝑝
𝑝2 (𝑝) = 1 − 𝑝
2
𝜕 𝑙𝑛 𝑝𝑖 2 1 1 1
Din ∑ ( ) 𝑝𝑖 (𝑝) = 𝜌 𝑝2 + (1 − 𝑝) (1−𝑝)2 = 𝑝𝑞 rezultă
𝑖=1 𝜕𝑝
𝑝𝑞
𝐷2 (𝜃 ∗ ) ≥ ⋅
𝑛
Minimul fiind atins, demonstrația este încheiata.
2. Repartiția multinominală
Fie 𝜉 o variabilă aleatoare care poate lua numai valorile vectoriale e1…ek cu probabilitățile
respective p1,…,pk unde
e1=(1,0,…,0)
e2=(0,1,…,0)
………………
ek=(0,0,…,1)
Trebuie să estimăm parametrii p1,….,pk-1 pe baza unei selecții repetate 𝜉1 + ⋯ + 𝜉𝑛 . Valoarea pk
rezultă ca o consecință din faptul ca p1+…+pk=1.
Probabilitatea ca să avem 𝜉1 = 𝑥1 ,…, 𝜉2 = 𝑥𝑛 este egală cu
𝜈 𝜈 𝜈
𝑃1 (𝑥1 … 𝑥𝑛 ; 𝑝1 … 𝑝𝑘−1 )=𝑝2 1 𝑝2 2 … ⋅ 𝑝𝑘 𝑘
Evident 𝜈1 𝑒1 + ⋯ + 𝜗𝑘 𝑒𝑘 = 𝜉1 + ⋯ + 𝜉𝑛
Sistemul verosimilității maxime ne dă
39
𝜕 𝑙𝑛 𝑝 𝜕 𝑙𝑛 𝑝 𝜕 𝑙𝑛 𝑝
= 0, = 0 ,…….., 𝜕𝑝 =0
𝜕𝑝1 𝜕𝑝2 𝑘−1
𝑣1 𝜈 𝑣2 𝜈 𝑣 𝜈
− 𝑝𝑘 = 0, − 𝑝𝑘 = 0 ,………..,𝑝𝑘−1 − 𝑝𝑘 = 0
𝑝1 𝑘 𝑝2 𝑘 𝑘−1 𝑘
𝑣1 𝑣2 𝑣𝑘−1
De unde 𝑝1 = , 𝑝2 = ,……., 𝑝𝑘−1 =
𝑛 𝑛 𝑛
…………………………………..
∗ 𝜈𝑘−1 (𝜉1 +⋯+𝜉𝑛 )ⅇ𝑘−1
𝜃𝑘−1 = = , sunt eficiente
𝑛 𝑛
Elementele matricei A
𝑝𝑖 (1−𝑝𝑖 )
Aii=𝑀(𝜃𝑖∗ − 𝑝𝑖 )2 = 1. ≤ 𝑖 ≤ 𝐾 − 1
𝑛
𝑝𝑖 𝑝𝑗
Aij=𝑀(𝜃𝑖∗ − 𝑝𝑖 ). (𝜃𝑗∗ − 𝑝𝑗 ) = − 1. ≤ 𝑖, 𝑗 . ≤ 𝑘 − 1, , 𝑖 ≠ 𝑗
𝑛
3. Repartiția Poisson
Trebuie să estimăm parametrul 𝜆 din relația
40
𝜆𝑘 −𝜆
𝑃(𝑘, 𝜆) = 𝑒 , 𝑘 = 0,1 …
𝑘!
Pe baza unei selecții repetate𝜉1 , … , 𝜉𝑛 . Probabilitatea ca să avem 𝜉1 = 𝑥1 , … , 𝜉𝑛 = 𝑥𝑛 , valorile
𝑥1 , … , 𝑥𝑛 fiind întregi nenegativi este
𝑛
∑ 𝑥𝑖
𝜆 1=1
𝑃(𝑥1 … 𝑥𝑛 , 𝜆)=𝑒 −𝑛𝜆 𝑛 .
∏𝑖=1 𝑥𝑖 !
Cum
∞ 2
1 𝑘 𝜆𝑘𝑒 −𝜆 𝑛 𝑥
∞ =𝑛 ∑ (𝜆 − 1) ⋅ = 𝜆 , minimul dispersiei este 𝑛
𝜕 𝑙𝑛 𝑃(𝑘,𝜆) 2 𝑘=0 𝑘!
𝑛∑ [ ] 𝑝(𝑘,𝜆)
𝜕𝜆
𝑘=0
4.Repartiția normală
Estimația mediei. Să considerăm familia de repartiții normale cu densitatea de
probabilitate
−(𝑥−𝑚)2
1
𝑓(𝑥, 𝑚) = 𝜎√2𝜋 ⋅ 𝑒 2𝜎2 (a)
Unde 𝜎 este cunoscut, iar m este un parametru ce trebuie estimate pe baza unei selecții repetate
de volum n, 𝜉1 … 𝜉𝑛 .
𝑚 𝑚2 𝑥2 1
𝑙𝑛 𝑓(𝑥, 𝑚) = 𝑥 − − + 𝑙𝑛
𝜎2 2𝜎 2 2𝜎 2 𝜎√2𝜋
Din teorema 1 § 1rezultă că
41
𝜉1 + ⋯ + 𝜉𝑛
𝜃 ∗ (𝜉1 , … , 𝜉𝑛 ) =
𝑛
Este o funcție de estimație eficientă a parametrului m pentru familia (a) întrucât putem scrie
𝑚 𝑚2 𝑥2 1
𝑙𝑛 𝑓(𝑥, 𝑚) = 𝜎2 (𝑥 − 𝑚) − 2𝜎2 − 2𝜎2 + 𝑙𝑛 𝜎√2𝜋.
Se poate verifica de altfel , printr-un calcul direct ca 𝜃 ∗ este o funcție de estimație absolut corecta
care realizează minimul dispersiei.
Estimația valorii medii pătratice. Să considerăm familia de densităti de
−(𝑥−𝑚)2
1
probabilitate 𝑓(𝑥, 𝜎) = 𝜎√2𝜋 ⋅ 𝑒 2𝜎2 (b)
Unde m este cunoscut, iar 𝜎 un parametru ce trebuie estimate pe baza unei selecții repetate
𝜉1 , … , 𝜉𝑛 .
(𝑥−𝑚)2
Avem 𝑙𝑛 𝑓(𝑥, 𝜎) = − ln 𝜎 − ln √2𝜋 − 2𝜎2
Din teorema 5 § 1 rezultă că orice funcție de estimație suficientă pentru familia (b) este o funcție
𝑛
de ∑𝑖=1(𝜉1 − 𝑚)2
𝜕 𝑙𝑛 𝜌
Metoda verosimilității maxime = 0 ne dă
𝜕𝜎
∑𝑛𝑖=1(𝑥𝑖 − 𝑚)2
𝜎=√
𝑛
𝑛
∑ (𝜉1 −𝑚)2
Vom arăta că 𝜃 = 𝑐√ 𝑖=1
∗
𝑛
Unde c este o constantă pe care o vom determina , este o funcție de estimație asimptotic eficientă
pentru parametrul 𝜎.
n
Variabilele ξi − m, 1 ≤ i ≤ n, aparține clasei N(0, σ). Prin urmare ∑i=1(ξ1 − m)2 aparține
𝜃∗
clasei H(n, σ). Rezultă atunci că densitatea de probabilitate a lui este
𝑐
𝑛
𝑛 2
2 (2) 𝑛𝑥 2
− 2
𝑛−1
𝑛 ⋅𝑥 ⋅ 𝑒 2𝜎 , 𝑥>0
σ𝑛 𝛤 [2]
§ 4. Selecții nerepetate
Vom considera acum selecțiile nerepetate marginându-se. În cazul în care
caracteristica 𝛏 este definite într-o colectivitate finite compusă din N elemente.
42
După cele spuse de in § 1.1 caracteristica 𝛏 este o variabilă aleatoare pe un câmp
finit de probabilitate {Ω, K, P} în care elementele lui Ω sunt chiar elementele colectivității
generale, K coincide cu mulțimea părților lui Ω iar P este repartiția discretă uniformă pe Ω.
Variabilele 𝛏1 ,.., 𝛏2 nu mai sunt independente ci formează un lanț cu legături complexe.
𝑛 2
∑ (𝜉𝑘 −𝜉̅ )
𝑛 2
După calcule am evidențiat că: f=𝑁 , 𝑆 = 𝑀 [ 𝑘=1
]
𝑛−1
∑𝑁
𝑖=1(𝑎𝑖 − 𝑚1 )(𝑏𝑖 − 𝑚2 )
𝜎12 =
𝑁
𝑁 𝑁
𝑠12 = ⋅ 𝜎2 𝑠22 = ⋅ 𝜎2
𝑁−1 1 𝑁−1 2
𝑁
𝑠12 = ⋅𝜎
𝑁 − 1 12
Teorema 2. Avem relațiile
̅ ) = 𝑚1
M(𝜉(1) ̅ ) = 𝑚2
M(𝜉(2)
𝑠2
̅ − 𝑚1 )2)=(1 − 𝑓) 1
M((𝜉(1) 𝑛
𝑠2
̅ − 𝑚2 )2)=(1 − 𝑓) 2
M((𝜉(2) 𝑛
̅ − 𝑚2 )) = (1 − 𝑓) 𝑠12 ,
̅ − 𝑚1 )(𝜉(2)
M((𝜉(1) 𝑢𝑛𝑑𝑒 ∶ f = 𝑁 , (𝑛 < 𝑁).
𝑛
𝑛
̅ 𝑠𝑖 𝜉(2)
Teorema aceasta ne arată ca 𝜉(1) ̅ sunt funcții de estimație absolut corectă ale mediilor
teoretice m1 și m2
43
̅ 𝑠𝑖 𝜉(2)
Teorema 3. Coeficientul de corelație al variabilei 𝜉(1) ̅ este independent de
𝑠
volumul selecției și este egal cu 𝑠 12𝑠
1 2
𝜉̅(1) 𝑚
Teorema 4. Raportul 𝜉̅ este o funcție de estimație corectă a raportului 𝑚1 𝑑𝑎𝑐ă
(2) 2
𝜉̅ 𝑚2 𝑠2 𝑠12 𝑠2 1 2
D2 (𝜉̅ ) = (1 − 𝑓) 𝑚21 (𝑚12 − 2 𝑚
(1)
+ 𝑚22 ) + 𝑜 (𝑛)
(2) 2𝑛 1 1 𝑚2 2
2.Caracteristici multidimensionale
Teorema 3. În cazul selecțiilor repetate de volum n pentru o caracteristică normală
s-dimensională , notând
𝑛
1
̅̅̅̅
𝜉(𝑖) = ∑ 𝜉𝑖𝑘 , 1≤𝑖≤𝑠
𝑛
𝑘=1
44
𝑛
1
𝑛̅𝑖𝑗 = ∑(𝜉𝑖𝑘 − 𝜉(𝑙)̇ )(𝜉𝑗𝑘 − 𝜉(𝑗) ) , 1 ≤ 𝑖, 𝑗 ≤ 𝑠.
𝑛
𝑘=1
Exerciții
1 2 3 4
Exercițiul 1. Se consider variabila aleatoare discrete 𝑋: (𝑝2 7
𝑝
1 1 ). Care este
4 3 6
probabilitatea ca X să ia valoarea mai mica sau egală cu 3?
Rezolvare
7 1 1
Pentru ca X să fie o variabilă aleatoare trebuie ca 𝑝 ≥ 0 și 𝑝2 + 4 𝑝 + 3 + 6 = 1. Se obține
1
soluția acceptabilă p= .
4
1 7 1 5
𝑃(𝑋 ≤ 3) = 𝑃(𝑋 = 1) + 𝑃(𝑋 = 2) + 𝑃(𝑋 = 3) = + + =
16 16 3 6
Rezolvare
1 1 1
1 1
𝑝+6+𝑞+3+3= 1
𝑝 + 6 ≥ 0, 𝑞 + 3 ≥ 0, 2𝑝 − 𝑞 ≥ 0 și apoi {1 , rezultă valorile
+ 2𝑝 − 𝑞 + 12𝑝2 = 1
3
1
acceptabile p=6 și q=0. De aici rezultă că variabilele aleatoare au repartițiile
45
−1 0 1 −1 0 1
𝑋: ( 1 1 1 ) și Y: ( 1 1 1)
3 3 3 3 3 3
−2 0 2
În continuare obținem ca 2XY: ( 2 5 2)
9 9 9
Rezolvare
−2 −1 0 1 2 2 3 2
X+Y:( 1 2 3 2 1 ), deci P(X+Y=c) )> corespunde situației P(X+Y=0)= >9
9 9
9 9 9 9 9
adică c=0
Exercițiul 4. Fie X o variabilă aleatoare care are densitatea de probabilitate definite prin 𝜌(𝑥) =
0, 𝑥 ∉ (0,2)
{1
, 𝑥 ∈ (0,2)
2
Exercițiul 5. Fie X o variabilă aleatoare care are densitatea de probabilitate definite prin 𝜌(𝑥) =
0, 𝑥 ∉ (0,2)
{1
, 𝑥 ∈ (0,2)
2
46
Exercițiul 6. Dintr-o populație oarecare s-a extras o selecție de volum n=80 care a condus la
rezultatele :
xi 1 3 5 9
ni 11 25 31 13
4
Unde ni reprezintă frecvența de apariție a valorii xi în selecție (𝑛 = ∑𝑖=1 𝑛𝑙̇ = 80). Să se
calculeze media de selecție 𝑥̅ și dispersia de selecție ̅̅̅
𝜇2
Rezolvare
1 1
𝑥̅ = ⋅ 𝛴𝑛𝑖 ⋅ 𝑥𝑖 = (11 ∙ 1 + 25 ∙ 3 + 31 ∙ 5 + 13 ∙ 9) = 3.58
∑𝑛𝑖 100
1
𝜇2 =
̅̅̅ ⋅ ∑𝑛𝑖 ⋅ (𝑥𝑖 − 𝑋̅)2
𝛴𝑛𝑖
𝑋 −𝑚 ̅
16−10 30
𝑃(𝑋̅ > 16) = 1 − 𝑃(𝑋̅ ≤ 16)=1 − 𝑃 ( ⋅ √𝑛 ≤ ⋅ √25) = 1 − 𝑃 (𝑍 ≤ ) = 0.28
𝜎 𝜎 𝜎
30
Adică 𝑃 (𝑍 ≤ ) = 0.72
𝜎
30 30
Deci 𝜙 ( 𝜎 ) = 0,72, de unde = 0,72, 𝜎 = 41,66 Cu 𝜎 astfel obținut, probabilitatea cerută este
𝜎
𝑋𝑘 −𝑚 16−10
:𝑃(𝑋𝑘 > 16) = 1 − 𝑃(𝑋𝑘 ≤ 16) = 1 − 𝑃 ( ≤ )=
𝜎 41.66
47
Deci 𝑃(𝑋𝑘 > 16)=0.896
Exercițiul 8. Dintr-o populație normală cu media m1=100 și dispersia 𝜎12 =80 se extrage o selecție
de volum n1=600 și din altă populație normal cu m2=91 și dispersia 𝜎12 =220 se extrage o selecție
de volum n2=300.
Să se calculeze probabilitatea ca:
̅̅̅1 a primei populații să fie mai mare decât media de selecție 𝑋
Media de selecție 𝑋 ̅̅̅2 a celei de a doua
populații cu cel puțin 8 unități.
Rezolvare
̅̅̅1 > 𝑋
Avem de calculat 𝑃(𝑋 ̅̅̅2 + 8) sau:
48