Sunteți pe pagina 1din 22

UNIVERSITATEA ROMÂNO-AMERICANĂ

FACULTATEA de INFORMATICĂ MANAGERIALĂ


Programul de licență: INFORMATICĂ ECONOMICĂ
Disciplina: ECONOMETRIE
Anul II - semestrul 2 / 2016-2017

II. ELEMENTE DE STATISTICĂ MATEMATICĂ

2.1. Noţiuni de teoria selecției


2.1.1. Noțiunea de selecție
2.1.2. Repartiția selecției
2.1.3. Momente de selecție
2.1.4. Selecția dintr-o populație normală

2.2. Elemente de teoria estimației


2.2.1. Estimații punctuale ale parametrilor
2.2.1.1. Estimații deplasate și nedeplasate
2.2.1.2. Estimații consistente
2.2.1.3. Estimații eficiente
2.2.2. Metode de determinare a estimațiilor pentru parametrii repartițiilor statistice
2.2.2.1. Metoda momentelor
2.2.2.2. Metoda verosimilității maxime

1
II. ELEMENTE DE STATISTICĂ MATEMATICĂ

2.1. Noțiuni de teoria selecției


2.1.1. Noțiunea de selecție

Statistica matematică ale cărei principii generale sunt fundamentate de teoria


probabilităților, are ca obiect sistematizarea, prelucrarea și utilizarea datelor statistice în
vederea studierii pe cale inductivă a fenomenelor aleatoare de masă.

Studierea concordanței dintre modelarea matematică a unor fenomene aleatoare de masă și


fenomenele înseși este caracterizată de conceptul fundamental de selecție, concept care stă
la baza statisticii matematice.

Cercetarea statistică pornește de la o colectivitate, numită populație, formată din elemente


sau indivizi care se diferențiază prin diverse atribute și care poartă numele de unități ale
populației.

Studiul statistic al unei populații se poate face, de exemplu, cercetând unitățile populației,
după o anumită caracteristică măsurabilă sau calitativă pe care o posedă unitățile populației
și care poate fi asimilată cu o variabilă aleatoare X considerată pe populația luată în studiu.
Această variabilă aleatoare se numește variabilă aleatoare asociată populației sau
caracteristică sub cercetare sau variabilă aleatoare teoretică.

Legea de repartiție a variabilei aleatoate X poate fi dată fie prin funcția de frecvență, fie
prin densitatea de repartiție 𝑓(𝑥), fie prin funcția de repartiție 𝐹(𝑥), după cum variabila X
este discretă sau continuă, pe care le vom numi legi de repartiție teoretice.

Caracteristicile numerice ale variabilei aleatoare teoretice X le vom numi caracteristici


teoretice, astfel:
- 𝑚 = 𝑀(𝑋) – media teoretică;
- 𝐷 = 𝐷(𝑋) = 𝜎 2 - dispersia teoretică;
- 𝑚𝑟 = 𝑀(𝑋 𝑟 ) - momentul inițial de ordin r, teoretic;
- 𝜇𝑟 = 𝑀[(𝑋 − 𝑚)𝑟 ] - momentul centrat de ordin r, teoretic.

2
De regulă, legile de repartiție teoretice conțin unul sau mai mulți parametrii, astfel că vom
scrie 𝑓(𝑥, 𝜃1 , 𝜃2 , … ) sau 𝐹(𝑥, 𝜃1 , 𝜃2 , … ), parametrii ce au interpretări probabilistice ca valori
tipice: medie, dispersie etc.

În practică se poate examina însă numai un număr limitat de unități ale populației
considerând că informația obținută pe această cale oferă cu suficientă precizie elemente în
măsură să caracterizeze întreaga populație, cu alte cuvinte, să facem ceea ce se cheamă
inferență statistică, adică să extindem rezultatele obținute prin observarea unei părți din
populație, la întreaga populație.

Într-un mod mai intuitiv, noțiunea de selecție se poate defini pornind de la un experiment
aleator care constă în extragerea la întâmplare a unei unități din populație și măsurarea ei din
punctul de vedere al caracteristicii X.

Dacă repetăm de n ori în mod independent acest experiment, obținem un șir de valori de
observație 𝑥1 , 𝑥2 , … , 𝑥𝑛 ale variabilei aleatoare teoretice X.

Vom spune că o astfel de mulțime de valori observate ale unei variabile aleatoare X având
funcția de repartiție F, se numește selecție realizată de volum n, efectuată asupra variabilei
aleatoare X și o vom nota {𝒙𝟏 , 𝒙𝟐 , … , 𝒙𝒏 }.

Selecția poate fi:


 cu întoarcere – elementul extras este repus la loc;
 fără întoarcere – elementul extras nu mai revine în populație.

Dacă populația este infinită, atunci această deosebire practic nu mai apare; ea se impune însă
când populația conține un număr finit de elemente.

Pentru ca aceste concluzii să fie justificate, este necesar ca selecția să fie reprezentativă,
adică toate valorile de selecție 𝑥1 , 𝑥2 , … , 𝑥𝑛 să aibă aceeași probabilitate de a intra în
componența ei.

3
2.1.2. Repartiția selecției

Să considerăm o populație 𝚪, finită sau infinită, pe care o studiem din punctul de vedere al
unei proprietăți care variază (în general) aleator de la o unitate la alta a populației și pe care o
vom asimila cu o variabilă aleatoare X numită variabilă aleatoare teoretică definită pe
populația Γ.

Fie 𝜸 ⊂ 𝚪 o populație de selecție de volum n.

Valorile variabilei aleatoare teoretice X pentru fiecare unitate din eșantionul 𝛾 determină șirul
de valori 𝑋1 , 𝑋2 , … , 𝑋𝑗 , … , 𝑋𝑛 .

Deoarece participarea oricărei unități din populația Γ, la eșantionul 𝛾 este echiprobabilă


(selecția se face întâmplător), fiecare valoare 𝑋𝑗 din șirul anterior se realizează în selecție cu
aceeași probabilitate.

Astfel, se construiește variabila aleatoare de selecție (empirică) 𝑿∗ , cu repartiția:

𝑋1 𝑋2 … 𝑋𝑗 … 𝑋𝑛

𝑋 ∶ (1 1 1 1)
… …
𝑛 𝑛 𝑛 𝑛

Caracteristicile numerice ale variabilei aleatoare de selecție 𝑋 ∗ , numite caracteristici de


selecție, sunt:

1
- 𝑚∗ = 𝑋̅ = 𝑛 ∑𝑛𝑗=1 𝑋𝑗 - media de selecție

1 2
- 𝐷∗ = 𝑛 ∑𝑛𝑗=1(𝑋𝑗 − 𝑋̅) - dispersia de selecție

4
Eșantionul 𝜸, la rândul lui, are un aspect aleator determinat în primul rând de caracterul
întâmplător al selecției. Prin urmare, efectuând alte selecții se obțin alte eșantioane și alte
variabile aleatoare de selecție.

Putem considera că fiecare valoare 𝑿𝒋 a argumentului variabilei aleatoare de selecție 𝑋 ∗ este,


la rândul ei, o variabilă aleatoare identică din punct de vedere probabilistic cu X,
deoarece poate fi oricare din valorile posibile ale lui X și deci are aceleași caracteristici ca și
variabila aleatoare teoretică X, adică:

𝑀(𝑋𝑗 ) = 𝑀(𝑋), 𝐷(𝑋𝑗 ) = 𝐷(𝑋) , 𝑗 = ̅̅̅̅̅


1, 𝑛.

În cazul în care variabila aleatoare de selecție (empirică) 𝑋 ∗ are repartiția de forma:

𝑥1 𝑥2 … 𝑥𝑖 … 𝑥𝑘
𝑋 ∗ ∶ (𝑛 𝑛2 … 𝑛𝑖 … 𝑛𝑘 ) ; ∑𝑘𝑖=1 𝑛𝑖 = 1,
1

unde 𝑥1 , 𝑥2 , … , , 𝑥𝑖 , … , 𝑥𝑘 sunt valorile distincte ale lui 𝑋𝑗 , 𝑗 = ̅̅̅̅̅


1, 𝑛 ,

iar 𝑛1 , 𝑛2 , … , 𝑛𝑖 , … , 𝑛𝑘 sunt frecvențele relative de apariție,

caracteristicile de selecție devin:

 𝑚∗ = 𝑥̅ = ∑𝑘𝑖=1 𝑥𝑖 𝑛𝑖

 𝐷∗ = ∑𝑘𝑖=1(𝑥𝑖 − 𝑥̅ )2 ∙ 𝑛𝑖

5
2.1.3. Momente de selecție

Când se consideră selecția aleatoare {𝑋1 , 𝑋2 , … , 𝑋𝑛 }, adică 𝑋1 , 𝑋2 , … , 𝑋𝑛 sunt concepute ca


variabile aleatoare, orice funcție 𝑇𝑛 (𝑋1 , 𝑋2 , … , 𝑋𝑛 ) de aceste valori este o variabilă aleatoare a
cărei funcție de repartiție este unic determinată de funcția de repartiție F a variabilei aleatoare
teoretice X care a generat această selecție.

Funcția de selecție 𝑇𝑛 (𝑋1 , 𝑋2 , … , 𝑋𝑛 ) o vom numi statistică și aceasta este o variabilă


aleatoare. Deci, media de selecție 𝑚∗ = 𝑋̅ și dispersia de selecție 𝐷∗ , fiind funcții de datele
de selecție 𝑋1 , 𝑋2 , … , 𝑋𝑛 , sunt statistici.

Pentru o selecție realizată {𝑥1 , 𝑥2 , … , 𝑥𝑛 }, valoarea statisticii 𝑇𝑛 este numărul


𝑇𝑛 (𝑥1 , 𝑥2 , … , 𝑥𝑛 ), adică realizarea prin selecție a variabilei aleatoare 𝑇𝑛 (𝑋1 , 𝑋2 , … , 𝑋𝑛 ).

Datorită caracterului aleatoriu al selecției, fiecare statistică 𝑇𝑛 (𝑋1 , 𝑋2 , … , 𝑋𝑛 ) este o variabilă


aleatoare care, la rândul ei, are anumite legi de repartiție (f și F) numite repartiții de
selecție.

Cunoașterea legii de repartiție a statisticii 𝑇𝑛 (𝑋1 , 𝑋2 , … , 𝑋𝑛 ) este deosebit de importantă


deoarece cu ajutorul ei se poate face studiul probabilistic al statisticii 𝑇𝑛 (𝑋1 , 𝑋2 , … , 𝑋𝑛 ),
calculându-se probabilități de forma 𝑃(𝑇𝑛 < 𝑎), 𝑃(𝑎 < 𝑇𝑛 < 𝑏), precum și 𝑀(𝑇𝑛 ), 𝐷(𝑇𝑛 ).

În acest fel, prin intermediul statisticii 𝑇𝑛 putem trage concluzii referitoare la populația
generalăΓdin care a provenit selecția (eșantionul) 𝛾.

Teoria probabilităților ne oferă procedee de determinare atât a repartiției exacte, cât și a


repartiției asimptotice a statisticii 𝑇𝑛 .

Prin repartiția exactă a statisticii 𝑇𝑛 înțelegem repartiția determinată pentru orice volum al
selecției n, iar prin repartiția asimptotică înțelegem repartiția limită a statisticii 𝑇𝑛
(când 𝑛 → ∞).

6
Repartiția exactă este utilă când condițiile concrete ale caracteristicii studiate din populația Γ
impun folosirea unei selecții (eșantion) 𝛾de volum redus 𝑛 ≤ 30.

În cazul unor selecții de volum mare (𝑛 > 30), folosirea repartiției asimptotice conduce la
rezultate suficient de bune.

Cele mai importante funcții de selecție sunt așa-numitele momente de selecție pe care le vom
defini în continuare.

Numim moment inițial de selecție de ordinul r, statistica:

𝑛

1 𝑟
𝑋1𝑟 + 𝑋2𝑟 + ⋯ + 𝑋𝑛𝑟
𝑚𝑟 = ∑ 𝑋𝑖 =
𝑛 𝑛
𝑖=1

În particular, pentru 𝒓 = 𝟏, obținem momentul de selecție de ordinul întâi 𝑚1∗ sau media de
selecție notată cu 𝑋̅:
1
𝑚1∗ = 𝑛 ∑𝑛𝑖=1 𝑋𝑖 = 𝑋̅.

În legătură cu momentul inițial de selecție de ordinul r, 𝑚𝑟∗ , au loc relațiile:

 𝑀(𝑚𝑟∗ ) = 𝑚𝑟

𝑚2𝑟 −𝑚𝑟2
 𝐷(𝑚𝑟∗ ) =
𝑛

În particular, pentru 𝒓 = 𝟏, relațiile anterioare devin:

 𝑀(𝑋̅) = 𝑚

𝑚 −𝑚 𝜎 2 2
 𝐷(𝑋̅) = 2 𝑛 1 = 𝑛 .

adică valoarea medie a mediei de selecție este egală cu media populației 𝑀(𝑋) = 𝑚, iar
dispersia mediei de selecție este de n ori mai mică decât dispersia populației 𝐷(𝑋) = 𝜎 2 .

7
Numim moment centrat de selecție de ordinul r statistica:

𝑛
1 1
𝜇𝑟∗ = ∑(𝑋𝑖 − 𝑋̅)𝑟 = [(𝑋1 − 𝑋̅)𝑟 + ⋯ + (𝑋𝑛 − 𝑋̅)𝑟 ]
𝑛 𝑛
𝑖=1

În particular, pentru 𝒓 = 𝟐 obținem momentul centrat de selecție de ordinul 2 sau dispersia


de selecție:
𝑛
1
𝜇2∗ = ∑(𝑋𝑖 − 𝑋̅)2
𝑛
𝑖=1

Între momentele centrate de selecție 𝜇𝑟∗ și momentele inițiale de selecție 𝑚𝑟∗ există o relație
asemănătoare cu cea dintre momentele teoretice corespunzătoare, astfel:

𝜇𝑟∗ = 𝑚𝑟∗ − 𝐶𝑟1 𝑚1∗ 𝑚𝑟−1



+ 𝐶𝑟2 𝑚1∗2 𝑚𝑟−2

+ ⋯ + (−1)𝑟 𝑚1∗𝑟 .

Cu cât volumul selecției este mai mare, cu atât momentele de selecție vor avea valori mai
apropiate de momentele teoretice corespunzătoare.

Această afirmație are la bază convergența în probabilitate a momentelor de selecție către


momentele teoretice, justificată de teorema lui A.I. Hincin, conform căreia:

oricărui șir de variabile aleatoare independente 𝑍1 , 𝑍2 , … , 𝑍𝑛 , care urmează aceeași lege de


repartiție, cu aceeași valoare medie finită, 𝑀(𝑍1 ) = 𝑀(𝑍2 ) = ⋯ = 𝑀(𝑍𝑛 ) = 𝑚,
𝑍1 +𝑍2 +⋯+𝑍𝑛
îi putem aplica legea numerelor mari sau cu alte cuvinte, media aritmetică a
𝑛

acestor variabile, converge în probabilitate către m, când 𝑛 → ∞.

Așadar, dacă există momentul teoretic 𝑚𝑟 al repartiției teoretice, atunci momentul de selecție
𝑚𝑟∗ converge în probabilitate către momentul teoretic inițial de același ordin.

În mod analog, momentele centrate de selecție 𝜇𝑟∗ converg în probabilitate către momentele
teoretice 𝜇𝑟 corespunzătoare, când volumul selecției 𝑛 → ∞.

8
2.1.4. Selecția dintr-o populație normală

În continuare vom cerceta repartițiile de selecție ale unor statistici 𝑇𝑛 construite pe baza unei
selecții extrasă dintr-o populație cu repartiție normală.

Repartiția mediei de selecție pentru o selecție dintr-o populație normală

Teoremă. Dacă 𝑋1 , 𝑋2 , … , 𝑋𝑛 este o selecție de volum n dintr-o populație normală 𝑁(𝑚, 𝜎),
1 𝜎
atunci media de selecție 𝑚∗ = 𝑋̅ = 𝑛 ∑𝑛𝑘=1 𝑋𝑘 are o repartiție 𝑁 (𝑚, ).
√𝑛
𝜎 2
Prin urmare, 𝑀(𝑋̅) = 𝑚, 𝐷(𝑋̅) = 𝑛 .

𝑋̅ −𝑚
Consecință. Variabila aleatoare redusă 𝑍 = 𝜎 are repartiția normală de tip 𝑁(0,1).
√𝑛

Teoremă.
Dacă 𝑋11 , 𝑋12 , … , 𝑋1𝑛1 este o selecție de volum 𝑛1 din populația normală 𝑁(𝑚1 , 𝜎1 ) și
𝑋21 , 𝑋22 , … , 𝑋2𝑛2 este o selecție de volum 𝑛2 din populația normală 𝑁(𝑚2 , 𝜎2 ), și dacă
̅̅̅1 = 1 ∑𝑛𝑗=1
𝑋 1
𝑋1𝑗 ̅̅̅2 = 1 ∑𝑛𝑗=1
și 𝑋 2
𝑋2𝑗 sunt mediile de selecție corespunzătoare, atunci
𝑛
1 𝑛
2

variabila aleatoare

2 2
̅̅̅1 − 𝑋
𝑌=𝑋 ̅̅̅2 = ̅̅̅ ̅̅̅2 ) are o repartiție normală 𝑁 (𝑚1 − 𝑚2 , √𝜎1 + 𝜎2 ).
𝑋1 + (−𝑋 𝑛 𝑛 1 2

Consecință.
̅̅̅̅
𝑋1 −𝑋̅̅̅̅
2 −(𝑚1 −𝑚2 )
Variabila aleatoare redusă (normată) 𝑍 = are o repartiție de tipul 𝑁(0,1).
𝜎2 𝜎2
√ 1+ 2
𝑛1 𝑛2

Teoremă.
Dacă 𝑋1 , 𝑋2 , … , 𝑋𝑛 este o selecție de volum n dintr-o populație normală 𝑁(0,1), atunci
variabila aleatoare 𝑌 = ∑𝑛𝑘=1 𝑋𝑘2 are o repartiție hi-pătrat (𝜒 2 ) cu n grade de libertate 𝐻(𝑛).

9
Repartiția dispersiei de selecție pentru o selecție dintr-o populație normală

Dispersia 𝐷 = 𝜎 2 a unei populații oarecare Γ poate fi evaluată pe baza selecției 𝑋1 , 𝑋2 , … , 𝑋𝑛


în următoarele moduri:

a) Dacă media m a populației generale Γ este cunoscută, atunci dispersia de selecție


este dată de relația:
1
𝐷′ = 𝑛 ∑𝑛𝑘=1(𝑋𝑘 − 𝑚)2 = (𝑆∗2 )

b) Dacă media m a populației nu este cunoscută, atunci:

1
- media o putem aproxima cu media de selecție 𝑋̅ = 𝑛 ∑𝑛𝑘=1 𝑋𝑘 și

1
- dispersia de selecție este 𝐷∗ = 𝑛 ∑𝑛𝑘=1(𝑋𝑘 − 𝑋̅)2 = (𝑆 2 )

c) În cazul selecțiilor de volum mic, evaluăm dispersia D a populației generale Γ cu


dispersia de selecție dată de relația:

̃ = 1 ∑𝑛𝑘=1(𝑋𝑘 − 𝑋̅)2 = (𝑆̃ 2 ).


𝐷 𝑛−1

10
2.2. Elemente de teoria estimației

În multe din fenomenele din economie, din tehnică și în general din științele experimentale pe
care le cercetăm cu ajutorul statisticii matematice, există motive teoretice și practice să
afirmăm că forma funcției care exprimă legea probabilistică pe care o urmează fenomenul
studiat este cunoscută. Astfel, în cadrul unui proces de producție:
 variabila aleatoare X care reprezintă numărul de produse necorespunzătoare ce se
obțin într-o selecție de volum n, dintr-un lot supus controlului statistic, are repartiția
binomială de parametri n și p, unde p este probabilitatea ca un produs cercetat să fie
necorespunzător;

 variabila aleatoare X care reprezintă numărul de strunguri dintr-o secție mecanică ce


ies din funcțiune în decursul unei anumite perioade de lucru are repartiția Poisson
deoarece, în condiții normale de producție, ieșirea din funcțiune a unui strung pe o
durată oarecare este un eveniment rar, care nu depinde de ieșirea din funcțiune a
altuia dintre strunguri;

 variabila aleatoare T care reprezintă durata de funcționare fără defectări a unui aparat
are repartiția exponențială.

Din exemplele de mai sus, se observă că în toate cazurile forma funcției care exprimă legea
de probabilitate a variabilei aleatoare respective este cunoscută (specificată). Însă, în fiecare
din aceste legi de probabilitate există anumiți parametri ale căror valori sunt necunoscute.
Cunoașterea valorilor numerice ale acestor parametri ne permite să cunoaștem complet
repartiția și în acest fel să putem descrie în întregime fenomenul cercetat.

Problema determinării valorilor parametrilor ce figurează în legile de probabilitate pe baza


datelor furnizate de experiență constituie obiectul teoriei estimației.

Operația prin care se evaluează parametrii necunoscuți ai unei legi de probabilitate se


numește estimarea parametrilor și ea se face pe baza unei selecții {𝑋1 , 𝑋2 , … , 𝑋𝑛 } de volum n,
extrasă din populația pe care este considerată variabila X cu legea specificată care conține
parametrul ce trebuie estimat.

11
Valorile obținute cu ajutorul selecției, care aproximează parametrii legilor de probabilitate
specificate, se numesc estimații punctuale ale parametrilor.

Estimarea parametrilor este o metodă a statisticii matematice care poate fi privită ca un mod
de a face inferență asupra populației cercetate, adică de a extinde – în limite specificate de
incertitudine, exprimată în termeni probabilistici – rezultatele obținute în selecție, la întreaga
populație. Deoarece selecția este o parte a populației generale, care constă dintr-un număr
uneori redus de observații, ea ne oferă o informație parțială, de aceea există riscul de a comite
erori în aprecierile referitoare la întreaga populație, deci riscul de a trage concluzii false.
Acest risc se micșorează odată cu creșterea volumului selecției, dar el există întotdeauna.

2.2.1. Estimații punctuale ale parametrilor

Fie X o variabilă aleatoare (discretă sau continuă) asociată unei populații oarecare având
legea de repartiție 𝑓(𝑥, 𝜃) (pentru ușurința expunerii am presupus că depinde de un singur
parametru necunoscut 𝜃).

Să extragem din populația considerată o selecție aleatoare {𝑋1 , 𝑋2 , … , 𝑋𝑛 } de volum n și fie


𝑇𝑛 (𝑋1 , 𝑋2 , … , 𝑋𝑛 ) o statistică.

Statistica 𝑇𝑛 (𝑋1 , 𝑋2 , … , 𝑋𝑛 ) definită ca funcție univocă de variabilele de selecție, a cărei


valoare pentru o selecție realizată reprezintă aproximația valorii necunoscute a parametrului 𝜃
din legea de repartiție specificată 𝑓(𝑥, 𝜃) a populației generale, poartă numele de estimație
punctuală a parametrului 𝜃.

O statistică 𝑇𝑛 (𝑋1 , 𝑋2 , … , 𝑋𝑛 ) trebuie aleasă în funcție de parametrul pe care trebuie să-l


estimeze. Sensul este legat de ideea de convergență de un anumit tip a lui 𝑇𝑛 către 𝜃 când
volumul selecției 𝑛 → ∞.

Se pot găsi mai multe statistici diferite 𝑇𝑛 care ar putea fi propuse ca estimații punctuale ale
aceluiași parametru. Dintre acestea vom alege pe aceea care dă aproximația cea mai bună a
valorii parametrului 𝜃.

12
Alegerea unei astfel de statistici 𝑇𝑛 ca estimație a parametrului 𝜃 trebuie să se facă ținând
seama de condițiile:

 pentru o selecție realizată, statistica trebuie să dea valoarea adevărată a parametrului 𝜃

 statistica trebuie să dea valoarea care este cel mai frecvent, mai aproape de valoarea
adevărată a parametrului 𝜃.

Estimația găsită pentru parametrul 𝜃 este însoțită de mărimea erorii medii a estimației care ne
indică gradul de aproximare a valorii exacte a parametrului.

Prin eroarea estimației 𝑇𝑛 a parametrului 𝜃 înțelegem diferența 𝒕 − 𝜽 dintre valoarea


estimației și valoarea adevărată a parametrului (t este valoarea numerică a estimației 𝑇𝑛
pentru o selecție realizată).

Eroarea medie a estimației 𝑇𝑛 a parametrului 𝜃 o vom nota cu 𝝈(𝑻𝒏 ) și reprezintă abaterea


medie pătratică a estimației.

Rezultatul estimării punctuale a parametrului 𝜃 se scrie sub forma:

𝜃 = 𝑡 ± 𝜎(𝑇𝑛 )

înțelegând prin aceasta că cea mai bună evaluare a lui 𝜃 este numărul t, iar eroarea medie
comisă în această evaluare este 𝜎(𝑇𝑛 ).

Găsirea unei cât mai bune estimații pentru un parametru necunoscut este problema
fundamentală a teoriei estimației. Rezolvarea acestei probleme necesită cunoașterea unor
proprietăți de bază ale estimațiilor punctuale și clasificarea lor după aceste proprietăți.

13
Estimații deplasate și nedeplasate

În paragraful precedent am arătat că o condiție pe care trebuie să o îndeplinească statistica 𝑇𝑛


pentru a fi o bună estimație a parametrului 𝜃, este ca ea să dea valoarea adecvată a
parametrului (condiția 1), cu alte cuvinte condiția 1 cere ca repartiția statisticii folosite să aibă
media egală cu valoarea adecvată a parametrului.
(1)
Să presupunem că o selecție de volum n ne-a dat pentru parametrul 𝜃 o estimație 𝑇𝑛 .
(2)
Extragem o a doua selecție de același volum n care ne dă estimația 𝑇𝑛 . Repetând procedeul
(1) (2)
obținem estimațiile 𝑇𝑛 , 𝑇𝑛 ,… ale aceluiași parametru 𝜃 care, în general, diferă între ele.

Statistica 𝑇𝑛 poate fi privită ca o variabilă aleatoare având o anumită repartiție, iar numerele
(1) (2)
𝑇𝑛 , 𝑇𝑛 ,… ca valorile ei posibile.

Să presupunem că estimația 𝑇𝑛 dă o aproximație prin exces a lui 𝜃, adică fiecare din numerele
(𝑖)
𝑇𝑛 , 𝑖 = 1,2, … este mai mare decât valoarea căutată a parametrului 𝜃.

În acest caz valoarea medie a statisticii 𝑇𝑛 va fi mai mare decât 𝜃, adică 𝑀(𝑇𝑛 ) > 𝜃. Evident,
dacă 𝑇𝑛 dă o aproximație prin lipsă, 𝑀(𝑇𝑛 ) < 𝜃.

Prin urmare, folosirea unei estimații a cărei valoare medie nu este egală cu parametrul estimat
ne-ar conduce la erori sistematice. Din această cauză este natural să cerem ca valoarea medie
a lui 𝑇𝑛 să fie egală cu 𝜃.

Deși această condiție nu elimină erorile (unele valori ale lui 𝑇𝑛 pot fi mai mari altele mai mici
decât 𝜃), cu alte cuvinte condiția 𝑀(𝑇𝑛 ) = 𝜃 ne asigură că 𝑇𝑛 estimează parametrul fără erori
sistematice și că în medie estimația dă valoarea exactă a parametrului 𝜃.

Considerațiile anterioare ne conduc la următoarea definiție:


Definiție. Statistica 𝑇𝑛 (𝑋1 , 𝑋2 , … , 𝑋𝑛 ) se numește estimație nedeplasată a parametrului 𝜃,
dacă există valoarea medie a statisticii 𝑇𝑛 și este egală cu 𝜃, adică dacă pentru orice volum n
finit al selecției,
𝑀(𝑇𝑛 ) = 𝜃.

14
Diferența dintre valoarea medie a estimației și valoarea parametrului de estimat se numește
deplasarea estimației. O vom nota cu 𝐵𝑛 și avem:

𝐵𝑛 = 𝑀(𝑇𝑛 ) − 𝜃.

Observație. Nu trebuie să confundăm eroarea estimației cu deplasarea ei.

Eroarea estimației este 𝑇𝑛 − 𝜃și este o variabilă aleatoare, în timp ce deplasarea 𝐵𝑛 este
pentru n dat, o mărime constantă și reprezintă eroarea sistematică.

Statistica 𝑇𝑛 pentru care are loc relația 𝑀(𝑇𝑛 ) > 𝜃 se numește estimație pozitiv deplasată,
iar dacă 𝑀(𝑇𝑛 ) < 𝜃 se numește negativ deplasată.

Exemple

̅ obținută printr-o selecție 𝑋1 , 𝑋2 , … , 𝑋𝑛 asupra variabilei aleatoare X


1. Media de selecție 𝑿
dintr-o populație oarecare, este o estimație nedeplasată a mediei m a populației.

𝑛
1
𝑇𝑛 (𝑋1 , 𝑋2 , … , 𝑋𝑛 ) = 𝑋̅ = ∑ 𝑋𝑘
𝑛
𝑘=1

𝑛 𝑛
1 1 1
𝑀(𝑇𝑛 ) = 𝑀(𝑋̅) = 𝑀 ( ∑ 𝑋𝑘 ) = ∑ 𝑀(𝑋𝑘 ) = ∙ 𝑛 ∙ 𝑚 = 𝑚
𝑛 𝑛 𝑛
𝑘=1 𝑘=1

deoarece 𝑀(𝑋𝑘 ) = 𝑚 pentru orice 1 ≤ 𝑘 ≤ 𝑛.

Deci ̅ ) = 𝒎 = 𝑴(𝑿).
𝑴(𝑿
2. Să considerăm o selecție aleatoare 𝑋1 , 𝑋2 , … , 𝑋𝑛 dintr-o populație oarecare având
dispersia necunoscută 𝐷 = 𝜎 2 . Să luăm drept estimație a parametrului 𝜎 2 dispersia de
selecție:
1
𝐷∗ = 𝑛 ∑𝑛𝑘=1(𝑋𝑘 − 𝑋̅)2 = (𝑆 2 )

15
Vom arăta că dispersia de selecție 𝑫∗ este o estimație deplasată a dispersiei 𝝈𝟐 .

𝜎 2
Știm că: 𝑀(𝑋̅) = 𝑚 și 𝐷(𝑋̅) = 𝑛 .

1 1
Cum 𝐷 ∗ = 𝑛 ∑𝑛𝑘=1(𝑋𝑘 − 𝑋̅)2 = 𝑛 ∑𝑛𝑘=1(𝑋𝑘 − 𝑚)2 − (𝑋̅ − 𝑚)2,

luând media în ambii membrii ai relației de mai sus, obținem:

1
𝑀(𝐷∗ ) = 𝑛 ∑𝑛𝑘=1 𝑀[(𝑋𝑘 − 𝑚)2 ] − 𝑀[(𝑋̅ − 𝑚)2 ].

Deoarece 𝑀[(𝑋𝑘 − 𝑚)2 ] = 𝜎 2 , pentru orice 1 ≤ 𝑘 ≤ 𝑛, iar

𝜎 2
𝑀[(𝑋̅ − 𝑚)2 ] = 𝐷(𝑋̅) = 𝑛

1 𝜎2 𝑛−1 𝜎2
rezultă că 𝑀(𝐷∗ ) = 𝑛 𝑛𝜎 2 − = 𝜎2 = 𝜎2 − .
𝑛 𝑛 𝑛

𝟏
̅ )𝟐 este o estimație negativ deplasată a
Deci dispersia de selecție 𝑫∗ = 𝒏 ∑𝒏𝒌=𝟏(𝑿𝒌 − 𝑿
𝝈𝟐
dispersiei 𝝈𝟐 a populației, eroarea sistematică, deplasarea fiind − 𝒏 .

Estimații consistente

A doua condiție pe care trebuie să o îndeplinească statistica 𝑇𝑛 pentru a fi o bună estimație a


parametrului 𝜃 este ca ea să dea valoarea care este cel mai frecvent mai aproape de valoarea
adevărată a parametrului.

Cu alte cuvinte trebuie ca repartiția statisticii să fie concentrată în jurul parametrului ce se


estimează. O astfel de concentrare, cel puțin pentru valori mari ale lui n, este asigurată de
convergența în probabilitate a statisticii către parametrul 𝜃.

16
Definiție. Statistica 𝑇𝑛 (𝑋1 , 𝑋2 , … , 𝑋𝑛 ) este o estimație consistență pentru parametrul 𝜃 dacă
ea converge în probabilitate către parametrul 𝜃, adică dacă:

pentru orice 𝜀 > 0 arbitrar de mic,

𝑃(|𝑇𝑛 − 𝜃| < 𝜀) → 1
când 𝑛 → ∞.

Tocmai consistența estimației statistice este cea care asigură apropierea, cel puțin pentru
valori mici ale lui n, de parametrul pe care-l estimăm. Însă, pentru valori mici ale lui n, din
consistența estimației nu rezultă nici o concluzie cu privire la utilitatea sa pentru determinarea
cu aproximație a parametrului respectiv.

În general, se poate spune că nu orice estimație consistentă este și nedeplasată. Valoarea


medie a estimației poate să nu fie egală cu parametrul 𝜃, ci doar să se apropie indefinit de
acesta, când n crește. Pentru o valoare finită a lui n, o asemenea estimație poate fi pozitiv sau
negativ deplasată.

Teoremă
Dacă statistica 𝑇𝑛 (𝑋1 , 𝑋2 , … , 𝑋𝑛 ) este o estimație a parametrului 𝜃, astfel încât:
1. este nedeplasată sau dacă este deplasată, atunci lim𝑛→∞ 𝐵𝑛 = 0
2. dispersia estimației satisface condiția lim𝑛→∞ 𝐷(𝑇𝑛 ) = 0
atunci estimația 𝑻𝒏 este consistentă.

Exemplu
Momentul inițial de selecție de ordinul r, 𝒎∗𝒓 , obținut printr-o selecție 𝑋1 , 𝑋2 , … , 𝑋𝑛 de volum
n este o estimație nedeplasată și consistentă a momentului teoretic 𝑚𝑟 .

Demonstrația acestei afirmații rezultă din relațiile:

𝑀(𝑚𝑟∗ ) = 𝑚𝑟
𝑚2𝑟 − 𝑚𝑟2
𝐷(𝑚𝑟∗ ) =
𝑛

17
Prima asigură nedeplasarea estimației, iar a doua, deoarece lim𝑛→∞ 𝐷(𝑚𝑟∗ ) = 0 asigură
consistența.

Pentru 𝒓 = 𝟏, avem: 𝑀(𝑋̅) = 𝑚

𝑚2 − 𝑚12 𝜎 2
𝐷(𝑋̅) = = → 0
𝑛 𝑛 𝑛→∞

Deci media de selecție este o estimație nedeplasată și consistentă a mediei m a populației.

Estimații eficiente

În practică, valorile posibile ale estimației 𝑇𝑛 , obținute într-un șir de selecții succesive de
același volum n, pot fi foarte mult împrăștiate în jurul valorii medii 𝑀(𝑇𝑛 ) = 𝜃, adică
dispersia 𝐷(𝑇𝑛 ) = 𝑀(𝑇𝑛 − 𝜃)2 poate să fie mare.

Luând o astfel de valoare drept valoare aproximativă a lui 𝜃 am comite o eroare mare.
(1) (2)
În acest sens este evident că, dintre două estimații nedeplasate 𝑇𝑛 și 𝑇𝑛 ale aceluiași
(1) (2) (1)
parametru 𝜃 pentru care 𝐷(𝑇𝑛 ) < 𝐷(𝑇𝑛 ), vom prefera pe 𝑇𝑛 , adică pe aceea care are

dispersia mai mică.

Teorema Rao- Cramer

Dacă 𝑇𝑛 este o estimație nedeplasată a parametrului 𝜃 din repartiția 𝑓(𝑥, 𝜃) a variabilei


aleatoare X discretă sau continuă, atunci:

1
𝐷(𝑇𝑛 ) ≥
𝑛 ∙ 𝐼(𝜃)

unde 𝐼(𝜃) se numește cantitate de informație pe o observație și are una din expresiile
echivalente:

18
𝜕𝑙𝑛𝑓(𝑥, 𝜃) 2 𝜕 2 𝑙𝑛𝑓(𝑥, 𝜃)
𝐼(𝜃) = 𝑀 [ ] = −𝑀 [ ]
𝜕𝜃 𝜕𝜃 2

Definiție. Estimația nedeplasată 𝑇𝑛∗ pentru care:

1
𝐷(𝑇𝑛∗ ) =
𝑛 ∙ 𝐼(𝜃)

se numește estimație de minimă dispersie sau estimație eficientă.

Prin urmare, 𝑇𝑛 este o estimație eficientă a parametrului 𝜃, dacă 𝑇𝑛 dă valori care sunt
concentrate mai aproape de valoarea lui 𝜃 decât valorile oricărei alte estimații.

Observație
În practică, un rol mai important îl joacă abaterea medie pătratică 𝜎(𝑇𝑛 ) = √𝐷(𝑇𝑛 )
a estimației 𝑇𝑛 care se numește eroarea medie a estimației. Această denumire este justificată
de faptul că indică, în medie, eroarea comisă la estimarea parametrului 𝜃 într-o serie de
selecții succesive de același volum n.

19
2.2.2. Metode de determinare a estimațiilor pentru parametrii repartițiilor statistice

METODA MOMENTELOR

În cele ce urmează vom prezenta două procedee de determinare a estimațiilor, adică a


statisticilor 𝑇𝑛 (𝑋1 , 𝑋2 , … , 𝑋𝑛 ) ale căror valori să poată fi considerate drept evaluări
aproximative ale valorilor necunoscute ale parametrilor. Precizia acestor estimații este cu atât
mai mare cu cât volumul n al selecției este mai mare.
Metoda momentelor propusă de K. Pearson pentru estimarea parametrilor 𝜃1 , 𝜃2 , … , 𝜃𝑠 din
legea de repartiție a variabilei observate X, constă în:

 Se calculează primele s momente de selecție:

1 𝑗
𝑚𝑗∗ = 𝑛 ∑𝑛𝑘=1 𝑋𝑘 = 𝑚𝑗∗ (𝑋1 , 𝑋2 , … , 𝑋𝑛 ) , 𝑗 = 1,2, … , 𝑠.

 Se calculează primele s momente teoretice:

𝑚𝑗 = 𝑀(𝑋𝑗 ) = 𝑚𝑗 (𝜃1 , 𝜃2 , … , 𝜃𝑠 ) , 𝑗 = 1,2, … , 𝑠

 Se egalează momentele teoretice cu momentele de selecție corespunzătoare:

𝑚𝑗 (𝜃1 , 𝜃2 , … , 𝜃𝑠 ) = 𝑚𝑗∗ (𝑋1 , 𝑋2 , … , 𝑋𝑛 ) , 𝑗 = 1,2, … , 𝑠

Rezolvând ecuațiile anterioare, se obțin estimațiile 𝜃1∗ , 𝜃2∗ , … , 𝜃𝑠∗ parametrilor 𝜃1 , 𝜃2 , … , 𝜃𝑠 :

𝜃𝑗∗ = 𝜃𝑗∗ [𝑚1∗ (𝑋1 , 𝑋2 , … , 𝑋𝑛 ), … , 𝑚𝑠∗ (𝑋1 , 𝑋2 , … , 𝑋𝑛 )] = 𝜃𝑗∗ (𝑋1 , 𝑋2 , … , 𝑋𝑛 ) ,


𝑗 = 1,2, … , 𝑠

Metoda momentelor se bazează pe convergența în probabilitate a momentelor de selecție


către momentele teoretice corespunzătoare, adică pe consistența momentelor de selecție
(teorema lui Hincin).

20
METODA VEROSIMILITĂȚII MAXIME

Statisticianul englez R.A. Fisher nu s-a mărginit numai să arate neajunsurile metodei
momentelor, ci a elaborat o nouă metodă de estimare a parametrilor unei repartiții, numită
metoda verosimilității maxime. Această metodă este strâns legată de noțiunea de funcție de
verosimilitate.

Să considerăm variabila aleatoare X definită pe o populație oarecare, având legea de repartiție


𝑓(𝑥; 𝜃) ce depinde de un singur parametru.

Fie 𝑋1 , 𝑋2 , … , 𝑋𝑛 variabile aleatoare de selecție independente și 𝑥1 , 𝑥2 , … , 𝑥𝑛 , valorile


concrete obținute într-o selecție realizată, adică 𝑋1 = 𝑥1 , 𝑋2 = 𝑥2 , … , 𝑋𝑛 = 𝑥𝑛 .

Probabilitatea obținerii valorilor 𝑥1 , 𝑥2 , … , 𝑥𝑛 este funcția de verosimilitate:

𝐿(𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝜃) = 𝑓(𝑥1 ; 𝜃) ∙ 𝑓(𝑥2 ; 𝜃) ∙ … ∙ 𝑓(𝑥𝑛 ; 𝜃) = ∏ 𝑓(𝑥𝑖 ; 𝜃)


𝑖=1

care poate fi privită ca o funcție de parametrul 𝜃.

Metoda verosimilității maxime constă în aceea că pentru 𝒙𝟏 , 𝒙𝟐 , … , 𝒙𝒏 dați, cea mai bună
estimație a parametrului 𝜃 corespunde acelei valori a lui 𝜃 pentru care funcția de
verosimilitate este maximă.

Același principiu se aplică și în cazul când se estimează mai mulți parametri necunoscuți
𝜃1 , 𝜃2 , … , 𝜃𝑠 ce figurează în funcția de repartiție a variabilei X, deci și în funcția de
verosimilitate 𝐿(𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝜃1 , 𝜃2 , … , 𝜃𝑠 ).

Pentru 𝒙𝟏 , 𝒙𝟐 , … , 𝒙𝒏 dați, se determină valorile parametrilor 𝜃1 , 𝜃2 , … , 𝜃𝑠 pentru care funcția


𝐿(𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝜃1 , 𝜃2 , … , 𝜃𝑠 ) sau ln 𝐿(𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝜃1 , 𝜃2 , … , 𝜃𝑠 ) (ceea ce este același lucru)
este maximă.

21
În esență, prin metoda verosimilității maxime se determină acele estimații ale parametrilor
𝜃1 , 𝜃2 , … , 𝜃𝑠 pentru care sistemul de observații 𝑥1 , 𝑥2 , … , 𝑥𝑛 , de care dispunem este cel mai
probabil. Cu alte cuvinte, pentru orice alte valori ale parametrilor 𝜃1 , 𝜃2 , … , 𝜃𝑠 , probabilitatea
de a obține un sistem de observații care să coincidă cu cel de care dispunem, ar fi mică.

Prin urmare, estimațiile parametrilor 𝜃1 , 𝜃2 , … , 𝜃𝑠 obținute prin metoda verosimilității


∗ ∗ ∗
maxime, pe care le vom nota 𝜃1𝑣 , 𝜃2𝑣 , … , 𝜃𝑠𝑣 și le vom numi estimații de maximă
verosimilitate, sunt soluții ale sistemului de ecuații (numite ecuații de verosimilitate):

𝜕𝐿(𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝜃1 , 𝜃2 , … , 𝜃𝑠 )
= 0, 𝑗 = 1,2, … , 𝑠
𝜕𝜃𝑗

sau
𝜕ln𝐿(𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝜃1 , 𝜃2 , … , 𝜃𝑠 )
= 0, 𝑗 = 1,2, … , 𝑠
𝜕𝜃𝑗

Evident că, pentru existența estimațiilor de maximă verosimilitate, trebuie asigurată


derivabilitatea funcției L în raport cu fiecare din parametrii pe care îi conține.

22

S-ar putea să vă placă și