P. 1
Statistica prin Matlab

Statistica prin Matlab

|Views: 1,203|Likes:
Published by Róbert Rill

More info:

Published by: Róbert Rill on Jan 27, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

07/03/2013

pdf

text

original

Universitatea "Al.

I. Cuza" Ia³i

Facultatea de Matematic 

Statistic  prin

Matlab

- Note de curs -

[Iulian Stoleriu]

ii

Contents

1 Introducere în Statistic 
1.1 1.2 1.3 1.4 Scurt istoric . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Modelare Statistica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Organizarea si descrierea datelor Reprezentari grace 1.4.1 1.4.2 1.4.3 1.4.4 1.4.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3
3 5 8 12 12 13 14 15 16

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Reprezentare prin puncte

Reprezentarea stem-and-leaf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Reprezentarea cu bare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Histograme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Reprezentare prin sectoare de disc (pie chart) . . . . . . . . . . . . . . . . . . .

2 Elemente de Teoria probabilit µilor
2.1 2.2 2.3 2.4 Experienµe aleatoare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Deniµia axiomatic  a probabilit µii . . . . . . . . . . . . . . . . . . . . . . . . . . . .

17
17 18 20 22

Câmp de probabilitate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Câmp de probabilitate geometric  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iii

2.5 2.6 2.7 2.8 2.9

Probabilit µi condiµionate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Variabile aleatoare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Caracteristici funcµionale ale variabilelor aleatoare . . . . . . . . . . . . . . . . . . . .

23 23 25 28 31 31 32 33 36 38 42 44 45 49 52

Caracteristici numerice ale variabilelor aleatoare . . . . . . . . . . . . . . . . . . . . . . Inegalit µi între momente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2.10 Standardizarea unei variabile aleatoare . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.11 Corelatia si coecientul de corelatie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.12 Independenµa variabilelor aleatoare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.13 Exemple de repartiµii discrete . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.14 Exemple de repartiµii continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.15 Transform ri funcµionale de variabile aleatoare . . . . . . . . . . . . . . . . . . . . . .

2.16 Tipuri de convergenµ  a sirurilor de variabile aleatoare . . . . . . . . . . . . . . . . . . 2.17 Teoreme limit  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.18 Exercitii rezolvate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.19 Exercitii propuse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3 Experienµe aleatoare în Matlab
3.1 3.2 Scurta introducere în

53
53 57 57 58 58 59 61 62

Matlab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Generarea de numere (pseudo-)aleatoare . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1 3.2.2 3.2.3 3.2.4 3.2.5 Generarea de numere uniform repartizate intr-un interval, U(0, 1) . . . . . . . . Generarea de numere repartizate normal, N (µ, σ) . . . . . . . . . . . . . . . .

Generarea de numere aleatoare de o repartitie data . . . . . . . . . . . . . . . . Metoda functiei de repartitie inverse (Hincin-Smirnov) . . . . . . . . . . . . . . Generarea de numere aleatoare intregi . . . . . . . . . . . . . . . . . . . . . . .

3.3

Repartitii uzuale in

Matlab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
iv

. . . . . . . .6 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . .3. .3 4. . . . . . . . . . . . . . . . . . . . . . . .2 Matlab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .7. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Simularea arunc rii unui zar . . . . . . . . . . . . . . . . . . . . . . 3. . . . . . . . . . . . . . . .3 5. . . . . . . . . . . .11 Exercitii propuse . . . . . . . . . . .4 3. . . . . . Exercitii propuse . 108 109 112 Exerciµii rezolvate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Experimente aleatoare în 3. . . . Selecµii în 91 91 93 98 Matlab . . . . . . . . . . . . . Exercitii rezolvate .1 3. . Simularea arunc rii unei monede . . .5 3. 81 81 86 88 90 5 Noµiuni de teoria selecµiei 5. . . . . . . . . . . . . . . . . . . .5 5. . . . . . . . . . . . . . . . . . . . . . . . . .4 5. . .2 5. . . . . . . . . . . . . .2 4. . . . . . . . . . . .7 Alte comenzi utile în Matlab . . . .4 Masuri descriptive ale datelor negrupate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. . . . . Selectii aleatoare dintr-o colectivitate normala . . . . . Exemple de statistici . .6 3. . . . . . . . . . . . . . . .9 Probabilit µi geometrice . . . . . . . . . . . . . . . . . . Repartitii probabilistice in Matlab . .7. . . . . . . . . . . . . . . . . . . . . . . . . . . Masuri descriptive ale datelor grupate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Integrarea folosind metoda Monte Carlo . . . . . . 3. . . . . . . . . . . . .8 3. . . . . . . . . . . . . . . 4 Elemente de Statistic  descriptiv  4. . . . . . . . . . . . . . . . . 6 Noµiuni de teoria estimaµiei v 113 . .1 4. . . . . . . . . . . . . . . . . . . . . . . . 63 64 65 67 67 69 70 71 77 80 Metoda Monte Carlo . . . .1 5. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exercitii propuse . . . . . . . . . . . . . . . . . . . . . . . .10 Justicari grace ale teoremei limita centrala . . . . .

. . . . . . . . .6. . Metoda verosimilit µii maxime (maximum likelihood estimator) . . . . . .4 6. .6. . . . . . . . . . . . . . . . . . . . . . Interval de încredere pentru medie. .2 6. . . . . . . . . . . . . . . . . . . . . Interval de încredere pentru diferenta mediilor . . . . .4 7. . .3 6. . . . . . . . 141 144 146 152 Paradox cu intervale de încredere . . . . . . . . . . .6. . . . . . . . . . . . . . . . . . . . Etapele unei testari parametrice . . . . . . . . . . . cand dispersia este cunoscuta . . . . . . . . . . . . .7 Interval de încredere pentru medie. . . . . . . . . Interval de încredere dispersie. .2 6. . . .6. . . . . . . . . . . . . . . . . . . .2 7. . . 6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .5 6. . . . . . . . . . . . . . . . .3 7. . . . . . . . . . . .4 6. . . . . 113 120 122 124 125 127 128 132 134 135 135 136 137 140 Interval de incredere pentru selectii mari . . .9 Tabel cu intervale de incredere Functii de estimatie in Matlab . . . Interval de încredere dispersie. . . . . . . cand media este necunoscuta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .7 6. . . . vi 155 155 160 161 162 163 . . . . . . . . . . . . . . . . . . . . .1 6. . . . . . . . . . . . . . . . . . . . . . . . 6. .6. . . . . Testarea tipului de date din observatii . . . . . . . . cand media este cunoscuta . .5 6. . . . . . Tipuri de teste statistice . .6 Punerea problemei . . . . . . . . . .8 6. . . . . . . . . . . . . . . . . . . . . . .6. . . . . . . . . . . . . . . . . . . . . . . . . . . Metoda momentelor (K. . . . . . Metoda celor mai mici p trate . . . . . . . . . . . . . . . .5 Punerea problemei . . . . . . Testul cel mai puternic . . . . . . . . . . . . . . . . .6 6. . . Metoda minimului lui χ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .6. . .1 6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6. . . . . . . . .1 7. . . . . . 6. . . .11 Exercitii propuse . . . . . Pearson) . . . . .6. . .3 6. . . . . Metoda cu intervale de încredere . . . . . . . . . cand dispersia este necunoscuta . . . . . . . . . . . . . Interval de încredere pentru raportul dispersiilor . . 7 Vericarea ipotezelor statistice 7. . . . . . . . . . . . . . . . . . . . .10 Exercitii rezolvate . . . . . . . . . . . .

. . . . Testul de concordanta Kolmogorov-Smirnov . . . . . . . . . . . . . . . . . . . .6. . 180 180 182 Testul F pentru raportului dispersiilor . . . .1 7. . . . . .9 Testul Z pentru o selecµie . . . .1 7. . . . . . . . . . . . 183 184 184 189 194 Teste de concordanta . . . . . . . .2 Testul χ2 de concordanµ  . .6. . .6. . . . . . .7. . . 7. . . . . . . . . . Testul χ2 in Matlab . . . . . . . . . .7. . . 7. . . . . . . .6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .8 Exercitii propuse . Testul Z in 165 165 168 Matlab . . . . .6. . . . . . . . . . . . . . . .11 Tabel cu teste parametrice in 7. . . . . . . . . . . . . . . . . .7.6 7.3 7. . . . . . Testul Z pentru dou  selecµii . . . . . . . . . . . . . . . . . vii . . . . . . . . . . . . . .6. . . .10 Testul raportului verosimilitatilor . . . . . . . .5 7. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .6. . . .2 7. . . . . . . . . . . . . . . . . .6. . . . . . . . . . 174 179 Testul χ2 pentru dispersie . . . . . . . . . . . . . . . . . . .4 7. . . . . . . . . . . . . . . . . . . . . . . . . . .6 Teste parametrice . . . . . . . . . . . . . .6. .7 Matlab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .8 7. . . . . . .6. 7. . . . . . .7 7. . . . . . . . . . .6. . . . . . . . 7. . . . . . . 169 . . 170 173 Testul t pentru o selecµie Testul t pentru dou  selecµii . . . . . Testul t in Matlab . . . .

viii .

. . . . . . 85 Functia de repartitie empirica si functia de repartitie teoretica pentru distributia normala.6 3. . . . . . . . . . . . . . . . . . . . . . . . . . . .2 1. . . . . . . . . 0. . . . . . . . . . 4. . . . . . . . . . . . . . . . Suma cumulata . . . . . . . . . 87 ix . . .4 Reprezentarea cu puncte.5 3. . . . . .List of Figures 1. . .1 4. . . . . . . . . . . . . 3. . .miscare aleatoare (brownian ). . . . . . . . . . . . . . . . . . Reprezentarea pe disc a frecventelor relative ale notelor din tabelul cu note . . Generare de numere aleatoare prin metoda functiei inverse. . . . . . . . . . . . . . . . . . .8 3. . . . .2 3. Reprezentarile cu bare orizontale. . . . . . . . . . . . . . . . . . . . . .15 . . . . . . . . . . . . . . . . . . . . . . . .4 3. . . . . p) si P(np) pentru n = 100. . . . . . . .3 3. B(n. . . . . . . . . . . . . . . . Reprezentarea functiilor de probabilitate si de repartitie pentru B(10.1 3. .5) . 13 14 15 16 Reprezentarile cu bare sau histograme.2 Cuantila de ordin α. .9 Reprezentarea cu histograme a datelor uniforme. . . . . . . . Vericare graca a teoremei limita centrala (varianta cu functiile de repartitie) .3 1. . . . . . . . . . . . . . . . . . . . . p = 0. . . Reprezentarea cu histograme a datelor normale. . . . . . .1 1. . . . . . Simularea jocului de darts. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .7 3. . . . 58 59 61 68 71 74 77 78 79 Simularea arunc rii unei monede corecte (a) ³i a unui zar corect (b) . .

. . . . . . . . . . . . . . . . .1 6. . . . . . . . . . . . . . . . . . . . . .27. . . . . . . . . . . . . . . . .1 7. . . . . . . Reprezentarea normala a datelor. . . . . . . .2 Intervalul de incredere pentru Exercitiu 6. . 132 143 50 de realizari ale intervalului de incredere pentru µ . . . . x . 89 6. . . . . . . . . . . . . . . .3 Reprezentare pentru numarul de accidente. . . . . . . . . . . . .4 160 161 161 164 Regiune critica pentru test bilateral. . . . . . . . . . . . . . . 7. .4. . . Regiune critica pentru test unilateral dreapta. . . . . .2 7. . . . . . .3 7. . . . . . . . . . . . . . . . . . . . . . . Regiune critica pentru test unilateral stanga. . . . . . . . . . . . . . . . . . . . . .

. . . Estimatori punctuali uzuali pentru parametri. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Erori decizionale. . . .3 7. . . . . . . . . . . . . . . . . . stem-and-leaf reprezentand punctajele studentilor. . . . . . . . . . . . . . . . . . . . . . . . . . .1 7. . Teste pentru valoarea medie a unei colectivitati. . . . . . . .1 3. . . . . . . . . . . . . . . . . . . . . . . . . Matlab specice pentru masuri descriptive. . . . . . . . . . . .3 1. . .2 Repartitii uzuale in Funcµii Matlab . . . . . . . . . . . . Tabel . . Decizii posibile. . . .1 6. . . . . 62 64 Matlab utile . . . .6 Posibilitati decizionale. . . . . . . . . . . . . . . . . . . . .List of Tables 1. . . 10 11 12 13 Tabel cu frecvente pentru date continue. . . .5 7.2 Tabel cu intervale de incredere. . . . . . . . . . . . . . . . . . . . . Tabel cu frecvente pentru rata somajului. 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Teste pentru egalitatea a doua medii. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xi 159 159 160 172 174 177 . . . . . . . . . . . . . . . .1 1. . . . . . . . . . . . . . . . . . . . . . . . . . .4 Tabel cu frecvente pentru date discrete. . . . . . . . 140 144 7. . . . . . . . . . . .1 Functii 88 6. . . . . . . . . . . . . . . . . . . . 4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2 7. . . . . . . .4 7. . . . .2 1. . Tabel cu note. . . . . .

. . . 7. . . . . . . . . .11 Tabel cu numarul de goluri pe meci la FIFA WC 2006. . . . . . 7. 7. 7. . . . . . . .8 7. . . .10 Tabel cu numarul de puncte obtinute la aruncarea zarului. . . . . . . . . . . . . . . .15 Frecventa inaltimii barbatilor dintr-o anumita regiune. . . .13 Timpi de asteptare in statia de tramvai. . . . . . . 180 182 183 185 188 188 191 192 193 194 7. . . . . . . . . . . . . . .14 Probabilitati de asteptare in statia de tramvai. . Teste pentru raportul dispersiilor. . . . . . . . . . . . . . . . . . . . . . . .16 Distributia copiilor intr-o familie cu 4 copii. . . . . . . . . . . 7. . . . . . . . . . . . . . . . . . . . . .12 Tablou de distributie pentru P(2. . . . .9 Teste pentru dispersie. . . . . 7. . . . . . . . . . . .7. . . . . Tabel cu teste parametrice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .7 7. 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .25). . . . . . . . . . . . . . . . . . . . . . . . . . . .

2 .

daca intr-o anumita zona a tarii rata somajului este ridicata. In ambele situatii mentionate apar erori in aproximare. ne-am dori sa putem descrie aceste fenomene cu ajutorul variabilelor aleatoare. de organizarea ³i interpretarea lor. pe care le doresc a  conrmate intr-un mod cat mai exact. ne-am dori sa m cat mai precisi in evaluarea legaturii dintre rata somajului si calitatea vietii. De cele mai multe ori. Plecând de la colecµiile de date obµinute dintr-o colectivitate. De exemplu. imediat ce sectiile de votare au inchis portile (exit-pole).1 Scurt istoric Statistica este o ramur  a ³tiinµelor ce se preocup  de procesul de colectare de date ³i informaµii. în vederea explic rii unor fenomene reale. de aceea ne-am dori sa construim un model matematic ce sa ne conrme intuitia. In ambele probleme mentionate. De regula. observatiile si culegerea de date au devenit prima treapta spre întelegerea fenomenului studiat. De aceea. oamenii au anumite intuitii despre realitatea ce ne inconjoara. erori care tin de intamplare. realitatea nu poate  complet descrisa de un astfel de model.lea. Statistica ap rut în secolul al XVIII . din nevoile guvernelor de a colecta date despre populaµiile 3 . dar scopul este de a oferi o aproximare cat mai dela si cu costuri limitate. Statistica introduce metode de predicµie iprognoz  pentru descrierea ³i analiza propriet µilor întregii colectivit µi. Aria de aplicabilitate a Statisticii este foarte mare: ³tiinµe exacte sau sociale.Chapter 1 Introducere în Statistic  1. Totusi. Chestionarea tuturor persoanelor ce au votat. Un alt gen de problema: ardem de nerabdare sa aam cine va  noul presedinte. colectarea si unicarea tuturor datelor intr-un timp record nu este o masura deloc practica. este de asteptat ca in acea zona calitatea vietii persoanelor de acolo sa nu e la standarde ridicate. umanistic  sau afaceri.

este nevoie de a identica mai întâi care este colectivitatea asupra c reia se dore³te studiul. sau numai elevii dintr-o ³coal . Din punct de vedere etimologic. în vederea unei mai bune administr ri. Datorit  originii sale. Statistica este considerat  de unii ca ind o ³tiinµ  de sine st t toare. • în “tiinµele educaµiei. pentru a studia care culturi sunt mai potrivite pentru a  cultivate pe un anumit teren arabil. pentru testarea unor noi medicamente sau vaccinuri. Sir John Sinclair a extrapolat termenul la colecµii ³i clasic ri de date. • în Economie. pentru a studia impactul crizei economice asupra unor anumite clase sociale. cuvântului statistic  i³i are originile în expresia latin  statisticum collegium (însemnând consiliul statului) ³i cuvântul italian statista. • în Biologie. pentru clasicarea din punct de vedere ³tiinµic a unor specii de plante sau pentru selectarea unor noi specii. • în Medicin . ce utilizeaz  aparatul matematic. sau totalitatea produselor agricole cultivate . însemnând om de stat sau politician.4 pe care le reprezentau sau de a studia mersul economiei locale. sau pentru a studia efectele înc lzirii globale. germanul Gottfried Achenwall a introdus termenul de Statistik. pentru a prognoza vremea într-un anumit µinut pentru o perioada de timp. pentru studiul rentabilit µii unor noi produse introduse pe piaµ . Aceast  colectivitate (sau populaµie) poate  populaµia unei µ ri. de exemplu. în vederea stabilirii gradului de corelaµie între timiditate ³i singur tate. ³i nu este privit  ca o subramur  a Matematicii. pentru a g si cel mai ecient mod de lucru pentru elevi sau pentru a studia impactul unor teste naµionale asupra diverselor caregorii de persoane ce lucreaz  în înv µ mânt. Mai târziu. Pentru a analiza diverse probleme folosind metode statistice. sau pentru a analiza cum se schimb  standardele de viaµ . • în psihologie. • în Politologie. pentru corelarea cererii cu oferta. desemnat pentru a analiza datele referitoare la stat. • în “tiinµele sociale. În 1749. • etc. • în Meteorologie. în secolul al XIX-lea. pentru a verica daca un anumit partid politic mai are sprijinul populaµiei. Metodele statistice sunt ast zi aplicate într-o gam  larg  de discipline: • în Agricultur .

e.2 Modelare Statistica De obicei. descrierea gradului de corelare între diverse tipuri de date. sau prin experiment. încât s  putem trage concluzii foarte precise despre anumite tr s turi ale întregii colectivit µi. trebuie sa decidem ce date avem nevoie sa colectam. este de multe ori aproape imposibil de a observa aceast  tr s tur  la ecare membru în parte. 1. tendinµe etc). se nume³te Statistic  inferenµial . numit  Statistic  descriptiv .. care trage concluzii despre caracteristici ale întregii colectivit µi. Exist  o ramur  a statisticii ce se ocup  cu descrierea acestei colecµii de date. Aceast  ramur  a Statisticii. histograme etc). De asemenea.1) . dar si notiuni din alte ramuri ale Matematicii. cum ar : Algebra liniara. quantile. daca este vreo corelatie intre numarul de ore de lumina pe zi si depresie). de aceea este mult mai practic de a strânge date doar despre o submulµime a întregii populaµii ³i de a c uta metode eciente de a extrapola aceste observaµii la toat  colectivitatea. care partid are o sustinere mai buna din partea populatiei unei tari. daca un anumit medicament este relevant pentru boala pentru care a fost creat. estimarea caracteristicilor numerice ale unor tr s turi comune întregii colectivit µi. studiind doar o parte din ea. cautand sa extraga informatii si sa le interpreteze din datele culese pe cale experimentala. sau toate bunurile produse într-o uzin . Aceasta utilizeaza Teoria probabilitatilor. dispersia. Aceast  descriere a tras turilor unei colectivit cti poate  f cut  aât numeric (media. Apoi. datele culese pot  procesate într-un anumit fel.g. date culese de noi pot  potrivite intr-un model statistic prin care Data observata = f (x. descrierea leg turii între diverse caracteristici etc. punctul de plecare este o problema din viata reala. pentru a putea da un raspuns la intrebarea ridicata si cum le putem colecta.Introducere în Statistic  5 într-un anumit µinut. În contul Statisticii interenµiale putem trece luarea de decizii asupra unor ipoteze statistice. sau prin simpla observare a caracteristicilor. Analiza matematica. cât ³i grac (prin puncte. Dac  se dore³te studiul unei tr s turi comune a tuturor membrilor colectivit µii. Statistica Matematic  este o subramur  a Matematicii ce se preocup  de baza teoretic  abstract  a Statisticii. Este nevoie de o metoda bine stabilita de colectare a datelor si sa construim un model statistic potrivit pentru analiza acestora. θ) + eroare de aproximare. In general. (1. mediana. Modurile de colectare a datele pot  diverse: putem face un sondaj de opinie. bare.

Caracteristicile pot : cantitative (masurabile sau variabile) si cal- atribute). astfel incat sa se potriveasca intr-o masura cat mai precisa datelor culese. deoarece unele date culese au caracter stochastic (nu sunt deterministe).6 unde f este o functie ce verica anumite proprietati. in scopul cercetarii lor din punctul de vedere al unei caracteristici. cat si din punctul de vedere al depozitarii datelor culese. Modelul astfel creat este testat. x este vectorul ce contine variabilele masurate si θ e un parametru. avem o nerepetata. unei populatii statistice este o anumita proprietate urmarita la indivizii ei Volumul unei colectivitati statistice este dat de numarul indivizilor ce o constituie. Caracteristicile pot depinde de unul sau mai multi parametri. este foarte intemeiata alegerea unei selectii de date din intreaga populatie si sa urmarim ca pe baza datelor selectate sa putem trage o concluzie in ceea ce priveste variabila colectivitatii. colectivitatea este populatia cu drept de vot a unei tari si caracteristica urmarita este candidatul votat la alegerile prezidentiale). parametrii ind astfel caracter- istici numerice ale colectivitatii. Numit o recens mânt. reala sau imaginara. Altfel. Aceasta poate  nita sau innita. Selectia nerepetata nu prezinta interes daca volumul colectivitatii este nit. Daca extragerea se face la intamplare. atunci putem presupune ca selectia efectuata este repetata. in cazul in care volumul colectivitatii este mare sau foarte mare (e. care poate  determinat sau nedeterminat. O selectie (sau esantion) este o colectivitate partiala de elemente extrase (la intamplare sau nu) din colectivitatea generala. Elementele ce constituie o colectivitate statistica se vor numi unitati statistice sau indivizi. atunci spunem ca am facut un sa e reprezentativa pentru populatia din care face parte. daca volumul intregii populatii statistic este mult mai mare decat cel al esantionului extras. Selectia ar trebui selectie repetata (sau cu repetitie) o selectie selectie in urma careia individul ales a fost reintrodus din nou in colectivitate. La randul lor.g. Denim o populatie (colectivitate) statistica o multime de elemente ce poseda o trasatura comuna. chiar daca in mod . variabilele cantitative pot  discrete (numarul de sosiri ale unui tramvai in statie) sau continue (timpul de asteptare intre doua sosiri ale tramvaiului in statie). Termenul de eroare apare deseori in pratica. si eventual revizuit. Caracteristica (variabila) itative (nemasurabile sau in procesul prelucrarii statistice. Pe de alta parte. Suntem interesati in a masura una sau mai multe variabile relative la o populatie. atat din punctul de vedere al timpului necesar. deoarece in acest caz probabilitatea ca un alt individ sa e ales intr-o extragere nu este aceeasi pentru toti indivizii colectivitatii. insa aceasta s-ar putea dovedi o munca extrem de costisitoare. Numarul indivizilor selectiei. Daca se face o enumerare sau o listare a ecarui element component al unei a populatii statistice.. atunci spunem ca am facut o din selectia aleasa se va numi volumul selectie intamplatoare. De aceea.

in general. nivelul de precizie al informatiilor etc. costul operatiunii.g. (e. Selectiile aleatoare se pot realiza prin diverse metode. Alegerea ar poate facuta si in functie de marimea ecarui grup ce compune colectivitatea totala (e. in functie de urmatorii factori: disponibilitatea informatiilor necesare. • selectie straticata. prin care toti indivizii ce compun populatia au aceeasi sansa de a  alesi. dar il putem considera a  o selectie repetata. care este un esantion straticat construit prin selectarea de selectii din anumite straturi (nu din toate). • selectie ciorchine. unul foarte mic comparativ cu volumul populatiei cu drept de vot) se face.. (e. Aceasta metoda mininimizeaza riscul de a  partinitor sau favorabil unuia dintre indivizi. aleg din ecare judt un anumit numar de persoane. diversi timpi de pe o encefalograma). • selectie simpla de un volum dat. esantionul ales (de altfel. Se aplica doar pentru colectivitati omogene din punctul de vedere al trasarurii studiate. in care populatia este separata in categorii. Mai jos prezentam cateva metode de selectie. (care este un caz particular de selectie straticata) care se construieste prin selectarea unui numar de elemente din ecare strat dupa o anumita cota sau proportional cu marimea subgrupului din care face parte.. • selectie sistematica. care tine cont de elementul temporal in selectie. • si altele. • selectie cota.g.g.. • selectia de tip experienta. Dintre selectiile nerepetate amintim: . in vederea aplicarii testelor statistice. daca dorim sa facem o prognoza a cine va  noul presedinte la alegerile din toamna. Acest tip de selectie face ca ecare grup ce compune populatia sa poata  reprezentat in selectie. alegerea a ecarui al 10-lea numar dintr-o carte de telefon. iar alegerea se face la intamplare din ecare categorie. in anumite cazuri. fara repetitie.Introducere în Statistic  7 practic ea este peretata. proportional cu numarul de persoane din ecare judet). ce presupune aranjarea populatiei studiate dupa o anumita schema ordonata si selectand apoi elementele la intervale regulate. Aceasta metoda are neajunsul ca. primul numar ind ales la intamplare (simplu) dintre primele 10 din lista). Spre exemplu. nu reecta componenta intregii populatii.

Mai degraba. precizand numarul de voturi ce l-a primit ecare. Datele inainte de prelucrare. Datele pot  date sau calitative cantitative. Vom numi informatiile obtinute in urma observatiei valorilor acestei caracteristici.g. sau date continue. colectivitatea este multimea tuturor studentilor dintr-o universitate inrolati intr-un anumit timp. adica exact asa cum au fost culese.. este util sa grupam datele dupa numele candidatilor. origine etnica etc) (e. careia i se urmareste o anumita caracteristica. Imaginati-va ca enumeram toate voturile unei selectii intamplatoare de 15000 de votanti. • si altele. Primul pas in analiza datelor proaspat culese este de a le ordona si reprezenta grac. alegem dintre persoanele care trec prin fata universitatii. iar caracteristica este numarul de credite obtinute de studenti in decursul acelui an). daca aceasta caracteristica este continua (o variabila aleatoare de tip continuu). se numesc zilnic.3 Organizarea si descrierea datelor Presupunem ca avem o colectivitate statistica. de aceea se urmareste a se grupa datele. enumerarea tuturor datelor culese este dicil de realizat. dar la o scara mult mai mica.. cantitativa. • selectie de cota: selectia ar trebui sa e o copie a intregii populatii. de ecare gen. Aceste date poti  date discrete.8 • selectie de convenienta: de exemplu. De exemplu. . Asadar putem selecta proportional cu numarul persoanelor din ecare rasa. dupa cum caracteristica (sau variabila) observata este calitativa sau. intr-o scara mult mai mica). dar si de a calcula anumite caracteristici numerice pentru acestea. pentru o mai usoara gestionare. daca sunt obtinute in urma observarii unei caracteristici discrete (o variabila aleatoare discreta). In cazul din exemplu. datele vor  cantitative si discrete.g. specicat 871 822 729 794 523 972 768 758 583 893 598 743 761 858 948 598 912 893 697 867 877 649 738 744 798 812 793 688 589 615 731 De cele mai multe ori. • selectie de judecata: cine face selectia decide cine ramane sau nu in selectie. respectiv. persoanele din Parlament ar trebui sa e o copie reprezentativa a persoanelor intregii tari. abia iesiti de la vot. este: date negrupate. numarul de apeluri la 112 in luna Iulie. (e. 1.

asa ca veti supravietui. "Am avut deja noua pacienti ce au avut aceeasi boala si toti au murit.1. distributia empirica de selectie Aceste frecvente pot  absolute sau de relative. x2 . Un individ suferind merge la medic.. daca nu e cu b nat. sunt prezentate notele studentilor din anul al III-lea la examenul de Statistica. . Elementele unui tabel sunt. . . Statistic vorbind. Medicul il examineaza indelung si.Introducere în Statistic  9 Gruparea datelor Datele prezentate sub forma de distributie (tabel) de frecvente se numesc date grupate. si se va numi a lui X . {x1 . . r ≤ n. . . (1) Daca datele de selectie sunt discrete (e... . despre cum NU ar trebui interpretata frecventa relativa. x2 .1 O gluma povestita de matematicianul ungur György Pólya. Acesta este exemplu de tabel ce reprezenta o caracteristica discreta.  xr   fr unde fi este frecventa aparitiei valorii xi . xr .. Observaµia 1. Un tabel de frecvente (sau o distributie de frecvente) contine toate categoriile ce sunt observate din datele colectate si numarul de elemente ce apartine ecarei categorii in parte. Astfel. balansand dezamagit capul. de regula: valori pentru variabile.. ii spune pacientului: "Of. 2. adica frecventa absoluta. . (i = 1. . respectiv. suma tuturor frecventelor relative este egala cu 1. deja in culmea disperarii.. Suferiti de o boala groaznica. continua optimist doctorul. draga domnule pacient. .1) sau intr-un tablou de frecvente. doar unul scapa.g. . Mai intai va aduc la cunostinta vestea proasta. In tabelul 1. din zece pacienti ce contracteaza aceasta boala.. O frecventa relativa se obtine prin impartirea frecventei absolute a unei categorii la suma tuturor frecventelor din tabel." Pacientul. xn }) si au valorile distincte x1 . am o veste foarte proasta si una buna." . continue. . atunci ele pot  grupate intr-un asa-numit tabel de frecvente (vezi exemplul din Figura 1. este totusi consolat de doctor cu vestea cea buna: "Dar dumneavoastra ati venit la mine si asta va face tare norocos". frecvente sau frecvente relative. Datele de se- lectie obtinute pot  date discrete sau date continue. . dupa cum caracteristicile studiate sunt variabile aleatoare discrete sau. dupa cum urmeaza:   x1 data :  f1 x2 f2 . r ).

49 0. De exemplu.88 5.00% 18.79 1.95 0.14 2.06 3.98 0.97 0.12 3.48 2.76 1.30 4.67 0.65 1. Putem grupa datele de tip continuu intr-un tablou de distributie de forma:   [a0 .67% 7.40 2.77 2. atunci se obisnuieste sa se faca o grupare a datelor de selectie in clase.98 4.95 0.78 2.50 4. (2) Daca X este de tip continuu..78% 4.67% 20.88 1.44% 8.10 4.95 5.44 1. ar )  .40 3.92 4.91 1.75 2.76 0.55 2.08 3.35 1.32 5.55 3.64 1.89% 16.69 5.94 3..77 3.16 4.68 2.35 3.50 0.53 4.71 2.55 1.83 4..28 0.01 2.74 4.10 nota 2 3 4 5 6 7 8 9 10 Total frecventa 2 4 8 15 18 17 15 7 4 90 frecventa relativa 2.14 2.87 0. .58 5.36 1.36 4.79 3.86 5.22 5.64 2.30 4.44% 100% Table 1..51 5.80 0.89% 16.19 1.85 3.67 2.41 3.1: Tabel cu frecvente pentru date discrete.58 5.20 2.51 3.75 1.32 3.92 2.46 1.14 2.08 4.33 5.  [ar−1 . ni se dau urmatoarele date: 1.70 5.2): .89 3.88 4.03 0.13 3.26 0.04 5.12 4. a2 ) f2 .64 4.sec) de asteptare pentru primii 100 de clienti care au asteptat la un ghiseu pana au fost serviti.22% 4.48 2.55 5.12 reprezentand timpi (in min. a1 ) data :  f1 [a1 .08 2.78 2.34 4. fr sau sub forma unui tabel de distributie (vezi tabelul 1.41 1.99 0.41 5.33 2.74 3.02 2.67 3.31 3.63 1.89 1.

. In cazul tabelului 1. . 65). Asadar. . 1)  14 [1. 2 r • fi este frecventa aparitiei valorilor din [ai−1 . [45. Asadar. xr   fr • xi = ai−1 + ai este elementul de mijloc al clasei [ai−1 .. 6)  . x1 x2 . daca ne sunt data o insiruire de date ale unei caracteristici discrete sau continue. frecventelor tuturor claselor cu valori mai mici. putem grupa datele de tip continuu de mai sus in tablou de distributie:   [0. . f1 f2 . [25. a2 ) . 4) 18 [4. 14 Uneori. 5) 16  [5. [ar−1 .3. . Invers (avem tabelul sau tabloul de repartitie si vrem sa enumeram datele) nu este posibil decat in cazul unei caracteristici de tip discret. ce reprezinta rata somajului intr-o anumita regiune a tarii pe categorii de varste. valorile de mijloc sunt scrise in coloana cu varsta medie. 35). r)). 2) 17 [2. ar ) fr xr Table 1. . [55.. . daca ni se da tabelul 1. tabelul de distributie pentru o caracteristica de tip continuu mai poate  scris si sub forma:   x1 data :  f1 unde  x2 f2 . 2. (i = 1. . atunci le putem grupa imdiat in tabele sau tablouri de frecvente. . Vom numi valoare de mijloc pentru o clasa. Observam ca acest tabel are 5 clase: [18. 55). . a1 ) [a1 .Introducere în Statistic  11 clasa frecventa valoare medie [a0 . ai ).2: Tabel cu frecvente pentru date continue. . Frecventa cumulata a unei clase este suma .. nu am putea sti cu exactitate varsta exacta a persoanelor care au fost selectionate pentru studiu. ai ). [35. i=1 fi = n. 45). De exemplu.3. valoarea obtinuta prin media valorilor extreme ale clasei. 25). . 3) 21 [3.

12

varsta

frecventa 34 76 124 87 64 385

frecventa relativa 8.83% 19.74% 32.21% 22.60% 16.62% 100%

frecventa cumulata 8.83% 28.57% 60.78% 83.38% 100.00% -

varsta medie 21.5 30 40 50 60 -

[18, 25) [25, 35) [35, 45) [45, 55) [55, 65)
Total

Table 1.3: Tabel cu frecvente pentru rata somajului.

Vom numi o

serie de timp (sau serie dinamica ori cronologica) un tablou de forma
  x1 data :  t1 x2 t2 ... ...  xn  , tn

unde valorile xi sunt variabile de raspuns, iar ti momente de timp (e.g., seria de raspunsuri pe care le citeste un electrocardiograf).

1.4 Reprezentari grace
Un tabel de frecvente sau o distributie de frecvente (absolute sau relative) sunt de cele mai multe ori baza unor reprezentari grace, pentru o mai buna vizualizare a datelor. Aceste reprezentari pot  facute in diferite moduri, dintre care amintim pe cele mai uzuale.

1.4.1

Reprezentare prin puncte

Este folosita pentru selectii de dimensiuni mici. Sunt reprezentate puncte asezate unul peste celalalt, reprezentand numarul de aparitii ale unei valori pentru caracteristica data. Un astfel de grac este reprezentat in Figura 1.1.

Introducere în Statistic 

13

0.6

0.4

0.2

0

5

6

7

8

9

10

Figure 1.1: Reprezentarea cu puncte.

1.4.2

Reprezentarea stem-and-leaf

Sa presupunem ca urmatoarele date sunt punctajele (din 100 de puncte) obtinute de cei 20 de elevi ai unei grupe la o testare semestriala.

50 55 59 61 62 64 68 68 73 75 77 77 77 79 81 85 96 86 92 96
Tabelul 1.4 reprezinta aceste date sub forma

stem-and-leaf (ramura-frunza).

Se observa ca acest tabel

arata atat cum sunt repartizate datele, cat si forma repartitiei lor (a se privi gracul ca avand pe OY drept axa absciselor si OX pe cea a ordonatelor). Asadar, 7|5 semnica un punctaj de 75. steam leaf

9 8 7 6 5
Table 1.4: Tabel

26 1566 357779 12488 059

stem-and-leaf reprezentand punctajele studentilor.

14

1.4.3

Reprezentarea cu bare

Este utila pentru reprezentarea variabilelor discrete cu un numar mic de valori diferite. Barele sunt dreptunghiuri ce reprezinta frecventele si nu sunt unite intre ele. Fiecare dreptunghi reprezinta o singura valoare. In Figura 1.21 sunt reprezentate datele din tabelul cu note. Comenzile MATLAB uzuale pentru reprezentarea cu bare sunt:

bar(X, Y ); barh(X, Y ); bar(X, w);

deseneaza vectorul Y vs. vectorul X deseneaza pe orizontale vectorul Y vs. vectorul X deseneaza vectorul X vs. 1:N (N este lungimea lui X ); w = latimea barelor.

De exemplu, comanda care produce primul grac din Figura 1.2 este:

bar([2:10], [2 4 8 15 18 17 15 7 4], 0.5)

Figure 1.2: Reprezentarile cu bare sau histograme.

Comanda

Matlab urmatoare produce gracul din Figura 1.3, corespunzator datelor din tabelul 1.4:

barh(5:9,[3 5 6 4 2],.5)

Introducere în Statistic 

15

1.4.4

Histograme

O

histograma

este o forma pictoriala a unui tabel de frecvente, foarte utila pentru selectii mari de

date de tip continuu. E un set de dreptunghiuri, ale caror numar este numarul de clase, latime este intervalul clasei, iar inaltimea este asa incat aria ecarui dreptunghi reprezinta frecventa, asa incat aria totala a tuturor dreptunghiurilor este egala cu numarul total de observatii. De exemplu, histograma asociata tabelului cu varstele somerilor este cea reprezentata in Figura 1.22 . Comenzile MATLAB uzuale pentru crearea histogramelor sunt:

hist(X, n); hist(X, Y );

unde X este un vector, n este numarul de histograme deseneaza distributia vectorului X , cu numarul de histograme dat de lungimea vectorului Y .

Figure 1.3: Reprezentarile cu bare orizontale.

De exemplu, codul care produce gracul al doilea din Figura 1.2 este:

X = [7*rand(34,1)+18; 10*rand(76,1)+25; 10*rand(124,1) + 35; ... 10*rand(87,1)+45; 10*rand(64,1)+55]; % genereaza un vector X ca in tabelul 1.3 hist(X,5); axis([15 70 0 130]) % deseneaza 5 histograme % fixeaza axele

16

1.4.5

Reprezentare prin sectoare de disc (pie chart)

Se poate desena distributia unei caracteristici folosind sectoare de disc, ecare sector de disc reprezentand cate o frecventa relativa. Aceasta varianta este utila in special la reprezentarea datelor calitative. Comanda MATLAB pentru un produce Figura 1.4 este:

pie chart pentru un vector X

este pie(X). De exemplu, comanda care

T = [10 11.11 15.56 25.55 22.22 15.56]; pie(T,{'Nota 5','Nota 6', 'Nota 7', 'Nota 8', 'Nota 9','Nota 10'})

10%

16%

11%

Nota 5 Nota 6 Nota 7 Nota 8 Nota 9 Nota 10

22% 16%

26%

Figure 1.4: Reprezentarea pe disc a frecventelor relative ale notelor din tabelul cu note

Chapter

2

Elemente de Teoria probabilit µilor
2.1 Experienµe aleatoare
Numim

experienta aleatoare (sau experiment aleator) orice act cu rezultat incert, care poate  repetat experimentul determinist,
sem-

in anumite conditii date. Opusul notiunii de experiment aleator este

nicand un experiment ale carui rzultate sunt complet determinate de conditiile in care acesta se desfasoara. Rezultatul unui experiment aleator depinde de anumite circumstante intamplatoare ce pot aparea. Exemple de experiente aleatoare: jocurile de noroc, aruncarea zarului, observarea duratei de viata a unui individ, observarea vremii de a doua zi, observarea numarului de apeluri telefonice receptionate de o centrala telefonica intr-un timp dat. Aplicarea experientei asupra unei colectivitati date se numeste

proba.

Rezultatul potential al unei experiente aleatoare se numeste

eveniment aleator.

De

exemplu: aparitia unei duble (6, 6) la aruncarea a doua zaruri, extragerea unei bile albe dintr-o urna. Se numeste

caz favorabil pentru evenimentul aleator un caz in care respectivul eveniment se realizeaza. eveniment elementar. multimea tuturor evenimentelor elementare.
Un element

Un eveniment aleator poate avea mai multe cazuri favorabile. Un eveniment aleator cu un singur caz favorabil se numeste

Fie Ω o mulµime nevid , pe care o vom numi al lui Ω il vom nota cu ω . Vom numi oricarei experiente aleatoare.

evenimentul sigur,

acel eveniment care se poate realiza in urma

Evenimentul imposibil

este acel eveniment ce nu se realizeaza in nicio

proba. Evenimentele aleatoare le vom nota cu A, B, C, . . . . Prin Ac vom nota evenimentul complementar lui A, care se realizeaza atunci cand A nu se realizeaza. Avem: Ac = Ω \ A. Pentru a putea cuantica sansele de realizare a unui eveniment aleator, s-a introdus notiunea de 17

prob-

18

abilitate.

Probabilitatea poate  denita in 3 moduri diferite: denitia clasica, denitia statistica sau

denitia axiomatica (Kolmogorov).

In ce priveste

probabilitatea clasica, aceasta este denita doar pentru cazul in care experienta aleatoare

are un numar nit de cazuri egal posibile. In acest caz, probabilitatea de realizare a unui eveniment este raportul dintre numarul cazurilor favorabile realizarii evenimentului si numarul cazurilor egal posibile ale experimentului aleator.

Probabilitatea statistica

exprima probabilitatea cu ajutorul frecventelor de realizare a unui eveniment

intr-un numar mare de experimente aleatoare realizate in aceleasi conditii. Sa consideram o experienta aleatoare (e.g., aruncarea unui zar) al carei rezultat posibil este evenimentul aleator A (e.g., aparitia fetei cu 6 puncte). Aceste experiment aleator il putem efectua de N ori in conditii identice (spunem ca efctuam N probe ale experimentului), astfel incat rezultatul unei probe sa nu inuenteze rezultatul alteia (probe Sa notam cu νN frecventa absoluta de realizare νN a lui A in cele N probe independente. Raportul se va numi frecventa relativa. Notam cu fN acest N raport, ce are urmatoarele proprietati:

independente).

(a) (b) (c) (d)

0 ≤ fN ≤ 1; fN (Ω) = 1; fN (Ac ) = 1 − fN (A), ∀A; fN (A B) = fN (A) + fN (B), daca A B = ∅.

Mai mult, exista lim fN (A) si aceasta este denita ca ind probabilitatea de realizare a evenimenN →∞

tului A, notata P (A). Asadar, in cazul denitiei statistice a probabilitatii, aceasta este limita sirului frecventelor relative de producere a respectivului eveniment cand numarul de probe tinde la innit (vezi teorema lui Bernoulli din cursul urmator). In cele ce urmeaza, vom deni notiunea de probabilitate din punct de vedere axiomatic. Aceasta axiomatica a fost introduse de matematicianul rus A. N. Kolmogorov (1929) si are la baza teoria masurii.

2.2 Deniµia axiomatic  a probabilit µii
Reamintim, Ω este o multime abstracta, nevida.

atunci Ac ∈ F. de fapt.5 Fie F o colecµie de submulµimi ale lui Ω. avem (c') dac  (An )n∈N ∈ F.2 (c) implic  n (c') dac  (Ai )i=1. notat  B(E). cu proprietatile: (a) (b) (c) P (A) ≥ 0.e.6 O funcµie P : (Ω. B ∈ F. Dac  E = Rd . atunci B(Rd ) (sau B d ) este σ -algebra generat  de cuburile deschise din Rd .4 (1) Ω = R ³i F = {A. F) → R. (c) dac  A. (4) Ω = R ³i F = {(a. . ∀A. F = {A. P (Ω) = 1. ∀A ∈ F. A B = ∅. (5) Dac  Ω e o mulµime nevid  ³i F este o σ−algebr  pe Ω. Numim algebr  sau câmp o colecµie F (Ac = Ω \ A) (b) dac  A ∈ F .3 Numim σ−algebr  sau σ−câmp (sau ∞ corp borelian) o colecµie F de submulµimi ale lui Ω astfel încât (a). în plus.2) Observaµia 2. (3) Dac  A ∈ Ω.1) Deniµia 2. cea mai mic  σ -algebr  ce conµine deschi³ii lui E . care asociaza oricarui eveniment A ∈ F numarul real P (A). Deniµia 2. b].1 (a) ∅ ∈ F . B ∈ F . vom numi σ -algebr  Borel. n ∈ F. F) se nume³te spaµiu m surabil. atunci A (inchidere la complementariere) (inchidere la reuniune nita). σ -algebra generat  de familia mulµimilor deschise din E . σ(F) = A⊃F A. (2) F = {Ω. atunci n=1 An ∈ F. O not m prin σ(F) ³i este. Ac .Elemente in Teoria probabilit µilor 19 de submulµimi ale lui Ω astfel încât: Deniµia 2. O mulµime A ∈ Bd se nume³te mulµime borelian . B∈F Propoziµia 2. Ω. −∞ ≤ a < b < ∞} este o algebr . Numim σ−algebr  generat  de F cea mai mic  σ−algebr  ce conµine F . P (A B) = P (A) + P (B). Deniµia 2. (inchidere la reuniune numarabila) (2.3) Dac  E e un spaµiu topologic. ∅} este o algebr . (2. atunci perechea (Ω. ∅} este o algebr . (b) din deniµia anterioar  sunt satisf cute ³i. (2. A ⊂ R} este o σ−algebr . dar nu ³i σ−algebr . i. atunci i=1 Ai ∈ F.

Atunci P (A) = card A card Ω (2. cu urmatoarele proprietati: (i) Ω este o mulµime abstract  (mulµimea tuturor evenimentelor elementare ale unui experiment stochastic). Aceasta este denitia axiomatica data de A.4) P( n∈N An ) = n∈N P (An ). F.3 Câmp de probabilitate Principalul concept al teoriei probabilit µilor este spaµiu probabilistic sau câmp de probabilitate. atunci spunem ca P deneste o masura pe spatiul masurabil (Ω.5) dene³te o m sur  de probabilitate pe F (probabilitatea in sens clasic). 2. i. F = P(Ω) ³i A ∈ Ω. (ii) F ⊂ P (Ω) este o σ -algebr . Observaµia 2. O astfel de multime se va numi multime P -nula. iar tripletul (Ω.8 (1) Fie Ω o mulµime cu n elemente. P (Ω) = 1. F. F) inzestrat cu o probabilitate P se numeste camp de probabilitate in sens Kolmogorov si il vom nota cu (Ω. (2) In cazul in care conditia (b) din denitia probabilitatii lipseste. vom intelege un triplet (Ω.20 se numeste probabilitate. P ) se va numi spatiu cu masura. P ).7 Daca in locul conditiei (c) avem: (c) dac  (An )n∈N ∈ F disjuncte dou  câte dou  (Ai Aj = ∅. iar (Ω.e. cand ne vom referi la camp de probabilitate. F). N. cu excepµia unei mulµimi A pentru care P (A) = 0. (aproape sigur) dac  are loc întotdeauna. (σ − aditivitate) atunci P se va numi probabilitate σ− aditiva pe corpul borelian (Ω. in cazul in care masura intregului spatiu este loc a. In cele ce urmeaza. F. P ) se va numi camp borelian de probabilitate. P ). ∀i = j ) ³i P ( n∈N An ) ∈ F . Kolmogorov. Un camp de evenimente (Ω. F. F ). Observaµia 2. Spunem c  o proprietate are O probabil- itate este astfel un caz particular al notiunii de masura. atunci (2. sunt îndeplinite urm toarele condiµii: .s.

Pe de alta parte. iar (Ft )t≥0 este o ltrare pe F. ∀n = m. (σ3 ) ∀(An )n∈N ∈ F =⇒ n∈N 21 An ∈ F . mulµime P -nul .9 Din punct de vedere euristic. lim inf An ⊆ lim sup An . F. ltrare pe F . . lim sup An inseamna realizarea unei innitati de evenimente din sirul A1 . F conµine mulµimile P −nule). n→∞ n→∞ (2. P ) este un cîmp de probabilitate complet în raport cu P (i. (P3 ) ∀(An )n∈N . P. (2. mai putin un numar nit.7) Observaµia 2. (iii) P : F → R e o funcµie satisf cînd condiµiile: (P1 ) P (Ω) = 1. (P2 ) ∀A ∈ F . În caz de egalitate vom spune c  ³irul (An )n∈N are limit  ³i vom n→∞ n→∞ scrie n→∞ lim An = lim inf An = lim sup An . (iii) ∀A ∈ F .s. A2 . . .Elemente in Teoria probabilit µilor (σ1 ) Ω ∈ F . (ii) O mulµime A ⊂ F . (Ft )t≥0 ). (σ2 ) A ∈ F =⇒ Ac ∈ F . Terminologie: (i) Elementele lui F se numesc evenimente iar ω ∈ Ω sunt elemente de prob . .10 (Borel-Cantelli) Fie (An )n∈N ∈ Ω. evenimentul sigur. avem P ( n∈N An ) = n∈N P (An ). probabilitatea lui A. P (A) ≥ 0. un sir de evenimente. o vom numi sub-σ -algebr  a lui F . F. P (A) se va numi (iv) Dac  P (A) = 0. Dat ind un ³ir (An )n∈N in Ω. denim ∞ ∞ lim inf An = n→∞ n=1 m≥n Am ³i lim sup An = n→∞ n=1 m≥n Am .e.). unde (Ω. cu A − σ -algebr . sau spunem ca A se realizeaz  aproape sigur(a. An Am = ∅. atunci A este O familie (Ft )t≥0 cresc toare de sub-σ−algebre ale lui F se nume³te Denim o baz  stochastic  ca ind un qvadruplu (Ω. atunci A se va numi (v) Daca P (A) = 1.6) În general. lim inf An reprezinta evenimentul care se realizeaza cand n→∞ n→∞ toate An se realizeaza. Teorema 2. Atunci: .

atunci probabilitatea ca punctul sa cad  în subdomeniul D ⊂ D este aria D . b]) b−a În particular. De aici reiese c  probabilitatea ca un punct sa cad  într-un subinterval al lui [a. i. atunci P lim sup An n→∞ = 1. d]) d−c = . nu vor exista puncte în vecinatatea c rora punctul ales sa cad  mai des. întrez rim posibilitatea teoretic  ca un eveniment sa aib  probabilitatea nul . Dac  [a. b]. b] este dependent  de lungimea acelui subinterval ³i nu de poziµia sa în interiorul lui [a.4 Câmp de probabilitate geometric  S  presupunem c  am dispune de un procedeu prin care putem alege la întâmplare un punct dintr-un interval [a. d] este P (A) = masura ([c. (ii) Daca n=1 P (An ) = ∞ si evenimentele {An }n sunt independente. d). b] e mulµimea cazurilor egal posibile ³i [c. Este chiar proporµional  cu lungimea subintervalului. d] ⊂ [a. atunci P lim sup An n→∞ = 0. Dac  am folosi de mai multe ori procedeul pentru a alege un num r mare de puncte. b]. oricare ar  dou  subintervale de aceea³i lungime. În plus. b]. astfel ca s  nu existe puncte sau porµiuni privilegiate. masura ([a. Se poate observa analogia cu experienµa alegerii dintr-un num r de cazuri egal posibile. far  ca el sa e evenimentul imposibil . b] este mulµimea cazurilor favorabile. acestea vor  repartizate aproximativ uniform in [a. atunci probabilitatea ca punctul ales aleator dintr-un interval sa coincid  cu un punct dinainte stabilit este zero ³i. În mod cu totul analog. daca x ∈ (c. 2. dac  se ia la întâmplare un punct dintr-un domeniu planar D . i.e. aria D În trei dimensiuni. . este la fel de probabil ca punctul sa cad  într-unul dintre intervale ca ³i celalalt. atunci probabilitatea ca punctul ales sa cad  în [c.e. b]. vom presupune c  acest procedeu ne asigur  c  nu exist  porµiuni privilegiate ale intervalului [a. ori de câte ori e ales. astfel. probabilitatea similar  este raportul a dou  volume.22 ∞ (i) Daca n=1 ∞ P (An ) < ∞.

notat  P (A|B) sau PB (A). P ) → (E. In viata de zi cu zi intalnim numeroase astfel de functii. în plus. . e. iar tripletul (Ω.8) Observaµia 2. o variabila aleatoare este o functie cu valori intamplatoare. . F.10) (c) Dac  B1 . Fie (Ω. P (A) > 0.Elemente in Teoria probabilit µilor 23 2. astfel denit  va  o probabilitate pe F .9) (b) (formula lui Bayes) În condiµiile de la (a) ³i.5 Probabilit µi condiµionate Fie spaµiul probabilistic (Ω. E) un spaµiu m surabil. cu P (B) > 0. . (2. numarul clientilor deserviti la un anumit ghiseu intr-o anumita perioada. ζ si altele. astfel încît P (Bi ) > 0.12) pentru orice B ∈ E. B ∈ F .a. Atunci P (A) = i∈I P (Bi ) · PBi (A). E) se nume³te variabil  aleatoare (v. Z ) sau ξ. F. (2.11) 2.11 PB (A) camp de probabilitate. O funcµie X : (Ω. P (B1 B2 ··· Bn ) = P (B1 ) · PB1 (B2 ) · . Variabilele aleatoare le vom nota cu litere de la sfarsitul alfabetului (X. Denim probabilitatea evenimentului A condiµionat  de realizarea evenimentului B .) dac  (2. avem: PA (Bi ) = P (Bi ) · PBi (A) P (Bj ) · PBJ (A) j∈I . F. prin: PB (A) = P (A B) . · PB1 (2. F. PB ) este un Propoziµia 2.12 (a) (formula probabilit µilor totale) Fie (Bi )i∈I . Bn ∈ F .. astfel încît P (B1 B2 ··· Bn ) > 0. B2 . Y. P ) ³i A. ∀i ∈ I. . ∀i ∈ I . timpul de asteptare a unei persoane intr-o statie de autobuz pana la sosirea acestuia etc.6 Variabile aleatoare Euristic.g. numerele ce apar la extragerea loto. (I ⊂ N) o partiµie a lui Ω. ∀A ∈ F. atunci: ··· Bn−1 (Bn ). X −1 (B) ∈ F . P (B) (2. P ) un cîmp de probabilitate ³i (E. η. . .

. pentru ca X : (Ω. E).a.13) {X ∈ B} = {ω ∈ Ω | X(ω) ∈ B} Dac  X : (Ω. Variabilele aleatoare pot lua o multime cel mult numarabila de valori (si le numim v. Vom utiliza notatiile {X ≤ x} = {ω ∈ Ω | X(ω) ≤ x} si. atunci X este tot o v. reala este sucient ca ∀x ∈ R. Exemple de v. P ) → Rd este o v. numarul de erori aparute pana la primul succes etc.a. atunci X este vector aleator (sau v.. cea mai mic  σ−algebr  pentru care Xi . X . spunem ca X este o funcµie F−masurabil ). atunci X este o variabil  aleatoare real . F. E) ≡ (Rd . real . in general. (i ∈ I) o familie de v. multime continua de valori (un interval nita sau innit din R).) d-dimensional( ). atunci X este o matrice aleatoare. B(Rn×m ). Fie Xi : (Ω. Denim σ−algebra generat  de familia {Xi .a. pretul unui activ nanciar intr-o perioada bine determinata. i ∈ I . {ω ∈ Ω | X(ω) ≤ x} ∈ F.e. B(R)). E) ≡ (R. Deoarece multimile {(−∞. discrete) sau o de tip continuu).a. discrete: numarul fetei aparut la aruncarea unui zar.a. Din clasa v. dac : − (E. (2. denumit  σ−algebr  generat  de v. B ∈ Bd } este o σ−algebr . not (2.a..a. F. ∀ω ∈ Ω. i ∈ I). numarul de sosiri ale unui tramvai intr-o statie intr-un anumit interval.a. P ) → R sa e o v. de tip continuu amintim: timpul de asteptare la un ghiseu pana la servire. ∀ω ∈ Ω. notat  σ(Xi . P ) → (E. Astfel.24 (i. discret  X se poate scrie sub forma X(ω) = i∈J xi χAi (ω). − (E. atunci not F(X) = {X −1 (B). x ∈ R} genereaza B(R). F.a. si le vom numi (v. − (E. E) ≡ (Rn×m . σ(X) este cea mai mic  sub−σ−algebr  a lui F a³a încît X în raport cu care X este m surabil . x]. B(Rd )).a. O v.a. Dac  (Xn )n∈N este un ³ir de v. i ∈ N}. În particular. sunt m surabile. J ⊂ N.a. reale astfel încît Xk (ω) → X(ω).14) .

a. f (x) dx = 1 PX (B) = B (c) Funcµia f se nume³te f (x) dx.s.a. Observam cu usurinta ca i=1 Ai = Ω. (2. Uneori.15) X: . 1/6 1/6 1/6 1/6 1/6 1/6 O v. PX : Bd → [0. iar Ak = X −1 ({xk }). F.16) PX (B) = k∈J P (Ak )δxk (B). ∀i = j . discrete i se atribuie urmatorul tablou de repartitie:    xi  (2. pi n unde pi = P (X = xi ). discrete este astfel: (2. i=1 pi = 1. ce reprezinta numarul de puncte ce apare la aruncarea unui zar ideal este:   2 3 4 5 6   1  . B(R)).17) . dat  prin PX (B) = P (X ∈ B). Repartiµia unei v. X reala se nume³te de tip continuu dac  ∃f : Rd → R m surabil  Borel ce îndepline³te condiµiile: (a) (b) R f (x) ≥ 0.Elemente in Teoria probabilit µilor n 25 Aici χA este funcµia indicatoare a mulµimii A. Spre exemplu.a. In continuare. densitatea de repartiµie a lui X . ∀B ∈ F. ∀B ∈ B.a. P ) → (R. vom deni cele mai importante caracteristici functionale si numerice ale unei variabile aleatoare X : (Ω. tabloul de repartitie pentru v. unei o v. Ai Aj = ∅.7 Caracteristici funcµionale ale variabilelor aleatoare Repartiµia Repartiµia lui X este o m sur  de probabilitate pe Bd . 1].a. i ∈ J ⊂ N. 2.

1].18) Daca X este o variabila aleatoare continua si f este densitatea sa de repartitie. y ∈ R. . . X2 . F (x) = PX ((−∞. x2 . . . . Daca X = (X1 . .13 F (x). adica este repartitia multimii (−∞. . Numim functia Fc : R → [0. ∀x. cu tabloul de repartitie dat de (2. Termenul in engleza pentru functia de repartitie este cumulative distribution function. functia sa de repartitia intr-un punct x este: F (x) = {i. F. . X2 ≤ x2 . pentru un x ∈ R dat. xi ≤x} pi . atunci functia de repartitie este data de formula: x F (x) = −∞ f (t) dt. y x • • • x→−∞ lim F (x) = 0 ³i lim F (x) = 1. . ∀x ∈ R. x ∈ R. este continu  la dreapta ( lim F (y) = F (x). .    0. .a reale X o funcµie F : R → [0. x→∞ In cazul unei variabile aleatoare discrete. dat  prin F ((x1 . . Uneori. Propriet µi ale funcµiei de repartiµie: este cresc toare (F (x) ≤ F (y). 1]. . 1]. xd )) = P (X1 ≤ x1 . avem de calculat evenimentul P (X > x). (2.19) Observaµia 2. x]. data prin F( x) = P (X > x) = 1 − functie de repartitie complementara. dat  prin F (x) = P (X ≤ x). x]). ∀x ∈ R). Xd ) : (Ω.26 unde δa (B) =   1.15). atunci functia de repartitie se deneste ca ind F : Rd → [0. (2. x ≤ y ). P ) → Rd este un vector aleator. dac  a ∈ B în rest Funcµia de repartiµie (sau functia cumulata) Numim funcµie de repartiµie atasata v. Astfel. Xd ≤ xd ).

Elemente in Teoria probabilit µilor 27 Funcµia caracteristic  Numim funcµie caracteristic  atasata v. φX : R → C este uniform continu . ∀t ∈ R. j=1 φX (ti − tj )zi zj ≥ 0. Aici. zj ∈ C avem i. ∀t ∈ R. daca X = variabila aleatoare continua. dat  prin: ei t xk pk . a ∈ R. n ∀ti . Functia de probabilitate (en. i=1 . tj ∈ R. X(ω) = i∈J xi χAi (ω). n f (xi ) = 1. ∀zi . daca X = k∈J xk χAk . denit  prin de probabilitate (de frecventa) atasata variabilei aleatoare discrete X f (xi ) = pi . ∀ω ∈ Ω. Numim funcµie o funcµie f : R → R. ¯ Funcµia de probabilitate (sau de frecvenµ ) Fie X o variabila aleatoare discreta. φX (−t) = φX (t). (i2 = −1). φa X (t) = φX (a t). i ∈ J. ∀i ∈ J. Intr-adevar. ∀t ∈ R. φa X+b (t) = φX (a t)eibt .a reale X φX (t) = k∈J o funcµie φX : R → C.. J ⊂ N. a ∈ R. (X = discreta) φX (t) = R ei t x f (x) dx. proprietatile pe care le satisface functia de probabilitate sunt: f (xi ) ≥ 0. Propriet µi ale funcµiei caracteristice: • • • • • • |φX (t)| = 1. Ai ∈ F. unde pi = P (Ai ). i este numarul imaginar. probability distribution function) pentru o variabila aleatoare discreta este similara densitatii de repartitie pentru o variabila aleatoare continua. ∀t ∈ R.

Denim E(X) = lim E(Xn ). 0} = (−X)+ (ω).28 2. (daca aceasta integrala exista). constructia mediei unei v. X(ω) = se deneste ca ind: i∈J Deniµia 2. atunci exista un sir Xn : Ω → R..a. cu densitatea de repartitie f : R → R.. ∀ω ∈ Ω. folosind integrala Aceasta integrala este generalizarea integralei Riemann.a.15 Daca X este o v.14 xi χAi (ω).20) Deniµia 2. J ⊂ N. 0}. Atunci X = X + − X − . ∀ω ∈ Ω ³i n→∞ lim Xn (ω) = X(ω).16 Lebesque. n→∞ Pas 3: Fie X : Ω → R o v. Denitia mediei poate  data intr-un cadru mult mai general. de tip continuu. Media Daca X este o v. daca exista (!) se deneste astfel: E(X) = R xf (x)dx.a. unde X + (ω) = max{X(ω).21) Observaµia 2. n Pas 1: O v. (n ∈ N) de v. (2.a. X cu X(ω) = i=1 xi χAi (ω) se nume³te v.a.a. . Pentru v. simpl . E(X) = i∈J xi P (Ai ). Pas 2: încît Dac  X : Ω → R ³i X ≥ 0. simple astfel 0 ≤ X1 (ω) ≤ · · · ≤ Xn (ω) ≤ X(ω). reale. Sumarizam mai jos. X − (ω) = max{−X(ω). atunci (nu toate v.a.8 Caracteristici numerice ale variabilelor aleatoare 1. gradual si fara demonstratiile aferente.a.a. (2.vezi repartitia Cauchy).a. simpl  X denim media (notat  cu E(X)) astfel: n E(X) = not Ω X(ω) dP (ω) = i=1 xi P (Ai ). atunci media aceste v. media acestei v. de tip discret.a. de tip continuu admit medie .

∀ω ∈ Ω. ori de cîte ori m car una dintre E(X + ) ³i E(X − ) este nit . . Dac  X = X1 + iX2 : Ω → C. integrabil . cu densitatea de repartitie f si o funcµie m surabil  g : Rd → E(g(X)) = g(x)f (x) dx.a. nu putem masura gradul de impreastiere a valorilor lui X in jurul mediei sale doar calculand X − E(X).a. X = (X1 . deoarece integrala abstracta pe multimea Ω este "transportata" intr-o integrala Riemann pe R. Xd )T : Ω → Rd .18 Daca X este o v.a. Asadar. ori de cîte ori ambele medii exist  ³i sunt nite. X(ω) = i∈J xi χAi (ω). daca g : R → R este functia identica.22) . de tip continuu din Denitia 2. Avem nevoie de o alta masura. . (2. E(X) = E(X + ) − E(X − ). Relatia anterioara se mai numeste si formula de transport pentru integrala.a. .Elemente in Teoria probabilit µilor În acest caz denim 29 media lui X . atunci: E(X) = Ω X(ω) dP (ω) = R xf (x) dx.17 R. Aceasta este dispersia variabilei aleatoare. . E(X2 ). discreta. ∀i ∈ J. Cînd ambele sunt nite.15. unde pi = P (Ai ). . denim media v. E(Xd ))T . 2) Dispersia (sau varianµa) si abaterea standard: Daca X este o variabila aleatoare si X = X − E(X) (numita abaterea lui X de la media sa). J ⊂ N. . atunci E(X) = 0. Deniµia 2. Rd In particular. atunci spunem c  X este o v. . Atunci Fie X : Ω → Rd o v. X2 . Propoziµia 2. complexe X prin E(X) = E(X1 ) + iE(X2 ). . denim dispersia lui X ca ind: D2 (X) = i∈J (xi − m)2 pi . Dac  X este un vector aleator. si astfel redescoperim denitia mediei unei v.a. atunci denim media lui X prin E(X) = (E(X1 ). cu media E(X) = m.

(momente absolute centrate de ordin k). i ∈ J . denim momentele: αk (X) = E(X k ) = i∈J xk pi i |xi |k pi i∈J (momente iniµiale de ordin k). (momente absolute centrate). βk (X) = E(|X|k ) = R |x|k f (x) dx = µk (X) = E((X − m)k ) = R (x − m)k f (x) dx = Ω (X − m)k dP |X − m|k dP Ω (momente iniµiale centrate).a. Denim dispersia lui X (sau varianµa lui X ) cantitatea D2 (X) = E[(X − m)2 ] = R (x − m)2 f (x) dx.a.20 Dispersia scrisa ca integrala abstracta (vezi propozitia anterioara) este: σ2 = Ω (X(ω) − m)2 dP (ω).23) Notaµiile consacrate pentru dispersie sunt D 2 (X) sau σ 2 . X(ω) = cu E(X) = m si pi = P (Ai ).a. denim momentele: αk (X) = E(X k ) = R xk f (x) dx = Ω X k dP |X|k dP Ω (momente iniµiale de ordin k). de tip continuu pentru care media poate  denita (∃ E(X) = m ∈ R). X de tip continuu ce admite medie m = E(X) < ∞. J ⊂ N. ∀ω ∈ Ω. √ 3) Momente xi χAi (ω).19 Fie X : Ω → R o v. (momente iniµiale centrate de ordin k). Observaµia 2.30 Deniµia 2. (2. X de tip discret. i∈J Pentru o v. (momente absolute de ordin k). γk (X) = E(|X − m|k ) = R |x − m|k f (x) dx = . (momente absolute de ordin k). Abaterea standard este cantitatea σ = σ 2 . βk (X) = E(|X|k ) = µk (X) = E((X − m)k ) = i∈J (xi − m)k pi |xi − m|k pi i∈J γk (X) = E(|X − m| ) = k Pentru o v.

24) = kσ .10 Standardizarea unei variabile aleatoare Fie variabila aleatoare X . obtinem inegalitatea celor 3σ : P ({|X − m| ≥ 3σ}) ≤ 1 ≈ 0. (m = E(X)). ∀r. (H ölder). ∀0 ≤ r ≤ s. 2. (b) (βr (X))1/r ≤ (βs (Y ))1/s .9 Inegalit µi între momente (a) βr (X + Y ) ≤ cr (βr (X) + βr (Y )). k2 1 .25) P ({|X − m| ≥ kσ}) ≤ sau. Atunci avem g(E(X)) ≤ E(g(X)).26) semnicand ca o mare parte din valorile posibile pentru X se aa in intervalul [m − 3σ. (d) (E|X + Y |r )1/r ≤ (E|X|r )1/r + (E|Y |r )1/r . k2 (2. m + 3σ]. p ∈ N∗ . pentru p = 2 si X e inlocuit cu variabila aleatoare (X − m). (Lyapunov) (c) E|XY | ≤ (E|X|r )1/r (E|Y |s )1/s . (M inkowski) (e) Fie g : R → R convex . a2 (Cebsev) (2.1. ap (M arkov) În particular. echivalent: P ({|X − m| < kσ}) ≥ 1 − In cazul particular k = 3. 9 sau P ({m − 3σ < X < m + 3σ}) ≥ (2. r −1 + s−1 = 1.Elemente in Teoria probabilit µilor 31 2. atunci obtinem: 1 . 9 8 . s > 1. . de medie m si dispersie σ 2 . (Jensen) (f) Dac  a > 0. 1] ³i cr = 2r−1 pentru r > 1. unde cr = 1 pentru r ∈ (0. atunci avem: P ({|X| ≥ a}) ≤ βp (X) . unde k ∈ N. obµinem: P ({|X − m| ≥ a}) ≤ Daca in inegalitatea lui Cebîsev luam σ2 .

Deniµia 2. Y ) = 0. (2.a. mY si dispersiile σX . Notam astfel: ρ(X.11 Corelatia si coecientul de corelatie 2 2 Fie X.32 Deniµia 2. Calculand dispersia sumei X + Y . 2. (b) (c) cov(X.24 Se numeste coecientul de corelatie al v. mX . Y ) = E[(X − mX )(Y − mY )] = E(XY ) − mX mY . σY . Y v. cu mediile. . Y ) = 0.22 Media E[(X − mX )(Y − mY )] se numeste corelatia (sau covarianta) v. X si Y si o notam cu cov(X.a. D2 (X) = 1.a. atunci cov(X. independente (realizarile lui X nu depind de realizarile lui Y ). Y ) = cov(x. avem: D2 (X + Y ) = D2 (X) + D2 (Y ) + 2 cov(X. atunci ρ(X. Variabila aleatoare X = X −m se numeste variabila aleatoare standardizata (sau σ Proprietatile variabilei aleatoare standardizate: E(X) = 0. respectiv. Y ) σX σY . respectiv. Observaµia 2.21 normata). Y ) = cov(X.28) Observaµia 2. Y ). 2 2 Presupunem acum ca σX si σY sunt nite si nenule. Fie X = X − mX Y − mY si Y = . Reciproca nu este intotdeauna adevarata.23 (a) Continuand sirul anterior de egalitati.a. σX σY covarianta variabilelor standardizate Deniµia 2.25 (a) Daca X si Y sunt independente (vezi sectiunea urmatoare). Y ).27) Daca X si Y sunt v. (2. X si Y X si Y . obtinem: D2 (X + Y ) = E[(X + Y − (mX + mY )2 )] = E[(X − mX )2 ] + E[(Y − mY )2 ] + 2E[(X − mX )(Y − mY )] = D2 (X) + D2 (Y ) + 2E[(X − mX )(Y − mY )].

atunci ρ(x.30) Deoarece in relatia (2. este preferabil sa denim independenta a doua evenimente arbitrare astfel: Doua evenimente. . avem P (Ai Aj ) = P (Ai ) · P (Aj )). . A2 .12 Independenµa variabilelor aleatoare Conceptul de independenµ  a v. . .a. 2. Evenimentele A si B sunt independente daca probabilitatea lui A este independenta de realizarea evenimentului B . . Deniµia 2. b ∈ R). din aceasta multime. . . B ∈ F se numesc independente (stochastic) daca relatia (2.31) (ii) Spunem ca evenimentele A1 . Y ) ≤ 1. Daca Y = aX + b (a.    −1. A ∈ F un eveniment arbitrar si B un eveni- ment pentru care P (B) > 0. daca a > 0. ik } a mulµimii {1. pentru orice X si Y . . . An se numesc independente in ansamblu dac  pentru ecare submulµime {i1 . 2. daca a < 0. Y ) =   +1. A2 . Deniµia 2. P (B) Putem rescrie ultima egalitate sub forma simetrica: P (A B) = P (A) · P (B). .27 (i) Evenimentele A1 . An sunt independente doua cate doua dac  pentru oricare doua evenimente.29) P (A B) = P (A).Elemente in Teoria probabilit µilor 33 (b) (c) − 1 ≤ ρ(X. F. . (2. i2 .26 Fie (Ω. .30) are loc.30) nu mai este nevoie de conditie suplimentara pentru P (B). Ai si Aj . . . .32) . P ) un cîmp de probabilitate. (2. . (2. echivalent cu (2. · P (Aik ). . sau a evenimentelor este foarte important din punctul de vedere al calculului probabilit µilor evenimentelor compuse din evenimente mai simple. n} avem P (Ai1 Ai1 ··· Aik ) = P (Ai1 ) · P (Ai2 ) · . A. adica probabilitatea conditionata P (A| B) = P (A). .

. Observaµia 2. Observaµia 2. {σ(Xi )}i∈I .34) Deniµia 2.31 Denitia variabilelor aleatoare independente (in ansamblu) este echivalenta cu: Pentru orice k ≥ 2 si orice alegere a multimilor boreliene B1 . (I ⊂ N). Se observa cu usurinta ca evenimentele A.a. (I ⊂ N). i ∈ I ⊂ N}. (I ⊂ N). sunt independente (in ansamblu) dac  oricare dac  σ−corpurile generate de Xi . 8 Deniµia 2. pentru orice J ⊂ I.30 (2) (1) Spunem ca v. mai observam ca oricare doua dintre ele determina in mod unic pe al treilea. 4 P (A 1 B) = P (A) · P (B) = . deoarece: P (A 1 C) = P (A) · P (C) = . sunt independente doua cate doua ar  doua variabile aleatoare din aceasta familie. B2 . evenimentele (Ai )i∈I ⊂ F.34 iii În general. J−nit . fapt observat si din relatia 0 = P (A B 1 C) = P (A) · P (B) · P (C) = . este o familie de σ−corpuri. Consideram aruncarea a doua monede ideale. iar C evenimentul ca "doar la o moneda din cele doua a aparut fata cu stema". avem: . 4 P (B 1 C) = P (B) · P (C) = . Fie A evenimentul ca "fata ce apare la prima moneda este stema". (Xi )i∈I : (Ω. este indeplinita conditia P( j∈J Aj ) = j∈J P (Aj ). (Xi )i∈I : (Ω. Spunem ca v. Bk ∈ F. acestea sunt independente in sensul denitiei de la (1). Sa exemplicam considerand urmatoarea experienta. B evenimentul ca "fata ce apare la a doua moneda este stema". se numesc independente dac  (2. .29 ca acestea sunt Dac  {Mi . Asadar. F) → R. 4 Totodata. atunci spunem independente (stochastic) dac  pentru orice submultime nita J ⊂ I ³i pentru orice alegere de evenimente Aj ∈ Mj . cu Mi ⊂ F . . (2. formeaz  o familie de σ−corpuri independente.28 Independenta doua cate doua a evenimentelor nu implica independenta in ansamblu.a. B si C sunt independente doua cate doua. .33) P( j∈J Aj ) = j∈J P (Aj ). independenta doua cate doua nu implica independenta celor trei evenimente in ansamblu. F) → R.

n. atunci E(|X1 · X2 · . . . 2. 4.. . . . Urm toarele armaµii sunt echivalente: (i) (ii) (iii) (iv) X1 . 3. 5. Xn }. X2 = j}) = 1 36 = P ({X1 = i}) · P ({X2 = j}). Teorema 2. Xn ) (x1 . Evident. F(X1 .a. 2. . ce reprezinta numarul de puncte aparute la ecare aruncare. . {X2 ∈ B2 }. X2 . X2 ∈ B2 . independente. ∀t = (t1 . . cu alte cuvinte. . . . . 5. sunt din multimea {1.37) . Xn sunt v. F) → R. . X2 ∈ B2 . 4. X2 . . . . xn ) = FX1 (x1 ) · FX2 (x2 ) · . Xi : Ω → {1. Asadar. . . .36) Doua dintre dintre cele mai importante proprietati ale v.a. . . i = 1. . 3. sau. . . Xn ) (t) = φX1 (t1 ) · φX2 (t2 ) · . independente stochastic. 5. . n.Elemente in Teoria probabilit µilor 35 (2. {X1 . x2 . . . . · P (Xn ∈ Bn ). X2 . Xk ∈ Bk ) = P (X1 ∈ B1 ) · P (X2 ∈ B2 ) · . . (2. ∀x1 . . ∀k = 1. . . .. 4. 3. . .. astfel incat E(|Xk |) < ∞. X2 . P (X1 ∈ B1 . X2 .. . . ∀Bi . · E(Xn ). i = 1. x2 .35) P (X1 ∈ B1 . · Xn |) < ∞ si: E(X1 · X2 · . .32 Sa consideram aruncarea unui zar. 6}.. . . Aruncam zarul de doua ori si notam cu X1 . valorile acestor v. 6}. 6}. . independente sunt urmatoarele: Teorema 2. . reale. . . Xn sunt v. ∀i. . Avem: P {X1 = i} {X2 = j} = P ({X1 = i. . aceasta insemnand ca variabilele aleatoare X1 si X2 sunt independente stochastic (aruncarile au fost efectuate independent una de cealalta).a.a. j ∈ {1.34 Daca X1 .33 Consider m familia de v. . · φXn (tn ). {Xk ∈ Bk } sunt independente in ansamblu.. . . . . v. (2. t2 . .. respectiv. 2. · P (Xk ∈ Bk ). · Xn ) = E(X1 ) · E(X2 ) · .a. φ(X1 . · FXn (xn ). X2 . evenimentele {X1 ∈ B1 }. 2. xn ∈ R. 2.a. Exemplu 2. . Xn ∈ Bn ) = P (X1 ∈ B1 ) · P (X2 ∈ B2 ) · . .. tn ) ∈ Rn . Xi : (Ω.

. B(1. . in paranteza. reale. 2. . . (2) Repartiµia binomial . n. D2 (X) = p(1 − p). . + D2 (Xn ).a. p ∈ (0. . apare numele este apelata. . . k P (X = k) = Cn pk (1 − p)n−k . n. . n}. V. cu probabilit µile P (1) = p. p): Scriem X ∼ B(n. n k = 1. P (0) = 1 − p. . Bernoulli. . . X = 1 (succes) sau X = 0 (insucces). . ∀k = 1. independente. .13 Exemple de repartiµii discrete In dreptul ecarei repartitii. p). dac  valorile lui X sunt {0.a. . Exemplu: numarul de puncte care apar la aruncarea unui zar ideal este o valoare aleatoare repartizata (1) Repartiµia Bernoulli. n+1 2 . Exemplu: aruncarea unei monede ideale poate  modelata ca ind o v. 1 . . . 2. 1. cu probabilitatile P (X = k) = E(X) = U(6). B(n. . X2 .a.35 Daca X1 . de tip Bernoulli poate lua doar dou  valori. . 1)). 1. . n. astfel incat D2 (Xk ) < ∞. daca valorile lui X sunt {1. Matlab. Xn sunt v. p) (bino) Scriem X ∼ B(1. . . (2. k = 0. . . .36 Teorema 2.38) 2. atunci D 2 (X1 + X2 + . 2. . . . U(n) (unid) Scriem ca X ∼ U(n). cu ajutorul caruia aceasta repartitie (1) Repartiµia uniforma discreta. . p) (schema bilei revenite) cu probabilitatile (bino) (n > 0. + Xn ) = D2 (X1 ) + D2 (X2 ) + . E(X) = p. . D2 (X) = n2 −1 12 . n}. + Xn ) < ∞ si: D2 (X1 + X2 + . .

p. a. stiind probabilitatea de obtinere a unui succes. Geo(p): (geo) Valorile sale reprezinta numarul de insuccese avute pân  la obµinerea primului succes. unde p ≥ 0. a. atunci X= EX = Xi ∼ H(n. n Ca+b Observaµie: n a Dac  (Xk )k=0. n − b) ≤ k ≤ min(a. cu probabilitatile P (X = k) = e−k E(X) = λ. . p). a+b−1 n (Nu mai putem scrie egalitate intre tic). X ∼ Geo(p). a. 1)) dac  X ia valori in N. ∀k ∈ N. b).n ∼ B(1. ∀k ce satisface max(0. b) (schema bilei nerevenite) (n. λk . a. p) ³i (Xk )k independente stochastic.n ∼ B(1. D2 (X) = np(1 − p) i=0 a+b−n . (p ∈ (0. Dac  (Xk )k=1. n). D2 (x) = λ. D2 (X) = np(1 − p). atunci X = n Xk ∼ B(n. deoarece (Xi )i nu sunt independente stochas- (4) Repartiµia Poisson. Pentru un λ > 0. cu p = a+b (dependente stochastic). b > 0) dac  P (X = k) = k n−k Ca Cb . i=1 n E(Xi ) = np. ∀k ∈ N.Elemente in Teoria probabilit µilor 37 E(X) = np. k=1 (3) Repartiµia hipergeometric . n). k! (5) Repartiµia geometric . b) (hyge) X ∼ H(n. P(λ): (poiss) Valorile sale reprezinta numarul evenimentelor spontane (cu intensitatea λ) realizate intr-un anumit interval de timp. spunem c  X ∼ P(λ) (legea evenimentelor rare) dac  X ia valori naturale. cu probabilitatile P (X = k) = p(1 − p)k . H(n. D2 (X) si i=0 D2 (Xi ).

atunci variabila aleatoare Y = X + 1 reprezinta asteptarea pana (6) Repartiµia binomial  cu exponent negativ. p ∈ (0. Pentru m ≥ 1. ∀k ≥ m. obtinem repartitia geometrica. m + 2. . σ) (norm) Spunem c  X ∼ N (µ.   0 E(X) = a+b (b − a)2 . b) .38 E(X) = 1−p 1−p . σ) = √ e− 2σ2 . a. . dac  x ∈ (a. 2 12 (2) Repartiµia normal . b) =    1 b−a . p) (nbin) Valorile sale reprezinta numarul de insuccese obtinute inainte de a se realiza succesul de rang m.36 la primul succes. dac  X are densitatea: (x−µ)2 1 f (x. D2 (X) = . X ∼ U(a. cu probabilitatile m−1 P (X = k) = Cm+k−1 pm (1 − p)k . BN (m. . p ≥ 0. spunem ca X ∼ BN (m. x ∈ R. b) (a < b) dac  funcµia sa de densitate este f (x. D2 (X) = . σ 2π . m + 1. D2 (X) = . p p2 Observaµia 2. U(a. altfel. µ. In cazul particular m = 1. 1). σ). }. p p2 2. b) (unif) V. p) dac  X ia valorile {m. N (µ. Daca X ∼ Geo(p).a. E(X) = m(1 − p) m(1 − p) .14 Exemple de repartiµii continue (1) Repartiµia uniform .

Se mai nume³te ³i repartiµia gaussian . dac  x > 0 . σ) x−µ ). σ).a. σ (logn) (2. σ). σ) daca ln Y ∼ N (µ. Ea e denit  prin: e− y2 2 dy. Y ∼ logN (µ.41) Este utila in Matematicile Financiare.. µ. 1) funcµia de repartiµie este tabelat  ³i are o notaµie special . atunci X = σZ + µ ∼ N (µ.Elemente in Teoria probabilit µilor 39 E(X) = µ ³i D2 (X) = σ 2 . σ 2 = 1 densitatea de repartiµie devine: x2 1 f (x) = √ e− 2 . dac  x < 0 f (x. (2. dac  x ≥ 0   0 . σ).40) În consecinµ . reprezentand o distributie de preturi viitoare pentru un activ nanciare. σ 2 ) este dat  prin F (x) = Θ( (3) Repartiµia log-normal  logN (µ. Dac  Z ∼ N (0. λ) = . σ) =    xσ 1 √ e− 2π (ln x−µ)2 2σ 2 . (4) Repartiµia exponenµial . atunci Y = eX este o v. 2 A³adar. În cazul µ = 0. atunci Z= X−µ σ ∼ N (0. D2 (X) = e2µ+σ (eσ − 1). 1 Θ(x) = √ 2π x −∞ Θ(x).a. x ∈ R. exp(λ) (exp) Valorile sale sunt timpi realizati intre doua valori spontane repartizate P(λ). σ). În mod similar. 1). avînd densitatea de repartiµie f (x. Dac  X ∼ N (µ.39) În acest caz spunem c  X este repartiµia normal  standard. dac  xleq0   0 2 Media ³i dispersia sunt date de E(X) = eµ+σ /2 . 1). nenegativ . N (0. Pentru o v. X ∼ exp(λ) (λ > 0) dac  are densitatea de repartiµie    λe−λx . funcµia de repartiµie a lui X ∼ N (µ. 2π (2. dac  X ∼ N (µ.

∀x. X ∼ W bl(k. ∞) → (0. Γ(a. λ). λ) =     λa a−1 −λx e . λ λ Repartiµia exponenµial  are proprietatea a³a-numitei lipsa de memorie. aceasta repartitie se apropie de functia lui Dirac. dac  x ≥ 0 .   0.4.(Vericati!) (5) Repartiµia Gamma. E(X) = a a . ∞ Γ : (0. daca x ≤ 0. λ > 0) dac  are densitatea de repartiµie    k λ x k x k−1 −( λ ) e λ f (x. D2 (X) = 2 . unde Γ este functia lui Euler.a. Γ(a) = 0 xa−1 e−x dx. Observaµia 2. distributia Weibull este asemanatoare cu cea normala. λ λ (i) Γ(1. y ≥ 0. ∞).e. Este unica distribuµie continu  cu aceast  proprietate. a. {Xk }k=1. dac  x < 0   0 . a. λ > 0. Distribuµia geometric  satisface o variant  discret  a acestei propriet µi. atunci suma lor k=1 Xk ∼ Γ(n. i.n ∼ exp(λ) sunt independente stochastic. X ∼ Γ(a. λ) (wbl) Aceasta repartitie este asemanatoare cu repartitia exponentiala (aceasta obtinandu-se in cazul particular k = 1) si poate modela repartitia marimii particulelor. λ). λ) (gam) O v. W bl(k. Γ(a) x daca x > 0. λ) (k > 0. Cand k = 3.a.: P ({X > x + y}|{X > y}) = P ({X > x}). λ) = . daca densitatea sa de repartitie este: f (x. Cand k → ∞.40 E(X) = 1 1 ³i D 2 (X) = 2 . λ) ≡ exp(λ). (6) Repartiµia Weibull. k.37 n (ii) Daca v.

. Observaµia 2. n grade de libertate) daca densitatea de repartitie este:  m  ( m ) 2 Γ( m+n ) m −1  n 2  x2 1+ Γ( m )Γ( n ) 2 2 f (x) =   0 E(X) = n 2n2 (n + m − 2) . 2. x ≤ 0.a. t(n) (t) Spunem ca X ∼ t(n) (cu n grade de libertate) daca densitatea de repartitie este: Γ n+1 2 f (x. x ∈ R. 2 ). n x daca x > 0.38 (b) (a) 1 Repartitia χ2 (n) este. D2 (X) = . repartitia Γ( n . x > 0.   0. independente Xk ∼ N (0. D2 (X) = n . χ2 (n) O v.30): 2 2 2 X1 + X2 + · · · + Xn ∼ χ2 (n). S. X ∼ χ2 (n) (se citeste repartitia hi-patrat cu n grade de libertate) daca densitatea sa de repartitie este: f (x. F(m. de fapt. unde Γ este functia lui Euler. . n) (cu m. (8) Repartiµia Student (W. (9) Repartiµia Fisher. atunci (vezi Propozitia 5. . E(χ2 ) = n. . . 2 Daca v. n−2 m(n − 2)2 (n − 4) m n x − m+n 2 . 1) pentru k = 1.a. daca x ≤ 0. D2 (χ2 ) = 2n. n. n−2 (f) x2 1+ n − n+1 2 .Elemente in Teoria probabilit µilor 41 E(X) = λΓ 1 + 1 . n) =     1 n Γ( n )2 2 2 x 2 −1 e− 2 . n) = √ nπ Γ n 2 E(X) = 0. . k (chi2) (7) Repartiµia χ2 . Gosset). n) Spunem ca X ∼ F(m.

fX (x). not FY (y) = P (X ∈ DY ). a = 0. dy (2. µ) = NU admite medie si dispersie!!! λ . (2. g(x) ≤ y}. Notam cu FX (x) functia sa de repartitie. Putem scrie: {Y ≤ y} = {g(X) ≤ y} = {ω ∈ Ω. 2. λ.42) Daca g(x) este bijectiva si x = h(y) = g −1 (y). µ) (fara corespondent in MATLAB) Spunem ca X ∼ C(λ. X(ω) ∈ DY } Atunci. careia i se cunoaste densitatea de repartitie. Fie g(x) este o functie masurabila (Borel). Daca fX (x) este densitatea de rapartitie a unei variabile aleatoare X . Dorim sa gasim densitatea de repartitie pentru g(X). = DY not fX (x) dx. Atunci Y = g(X) deneste o alta variabila aleatoare. atunci densitatea de repartitie a lui Y este data de: fY (y) = fX (h(y)) dh(y) .15 Transform ri funcµionale de variabile aleatoare Functii de o variabila aleatoare Presupunem ca X este o variabila aleatoare continua.42 (10) Repartiµia Cauchy. π[(x − µ)2 + λ2 ] x ∈ R. Sa notam cu DY = {x ∈ R. atunci densitatea de repartitie a variabilei aleatoare Y = g(X) este fY (y) = 1 fX |a| y−b a . µ) daca densitatea de repartitie este: f (x.39 Consideram functia g(x) = ax + b. . ( = {X ∈ DY }).43) Exemplu 2. C(λ.

respectiv Y . g : D1 ⊂ W (Ω) → R. g(y) = R h(x. y2 ).42 (repartitia raportului a doua variabile aleatoare) Fie vectorul aleator (X1 . iar X. (D1 . de tip continuu. y) este densitatea de repartitie a vectorului bidimensional V = (X. Daca f (x) este densitatea de repartitie a lui X si g(y) este densitatea de repartitie a lui Y . Propoziµia 2. y2 ) Observaµia 2.  1 1 2   y2 = x2 . x2 = τ2 (y1 . (2. ce are densitatea de repartitie f (x1 . y2 ) = f (τ1 (y1 . y2 ). produsul. X2 ). bijctiva. Invers. f (x). cu densitatea de repartitie cunoscuta. Y variabile aleatoare reale denite pe campul de probabilitate (Ω. . daca h(x. Y ) are densitatea de repartitie h(x. τ2 (y1 . y) = f (x)g(y). unde (2. Exemplu 2. P ). cu densitatea de repartitie necunoscuta g(x). D2 -deschisi). Y ). y2 ))|J|. Atunci are loc: g(y1 . x2 ) . y) dx. de tip continuu. y2 ). Astfel. diferenta sau catul a doua variabile aleatoare. f : D2 ⊂ V (Ω) → R si e vectorul aleator W = (Y1 . respectiv. sunt: f (x) = R h(x.45) x1 = τ1 (y1 . |J| = D(x1 . X2 ) : Ω → R2 . de clasa C 1 .44) Urmatoarea propozitie determima care este densitatea de repartitie a unei functii de un vector aleator ce are densitatea de repartitie cunoscuta. aceste formule au ca aplicatii determinarea formulei densitatii de repartitie pentru suma. atunci vectorul bidimensional V = (X. D(y1 . x2 ) si e transformarea:   y = x /x . atunci densitatile de repartitie a lui X .41 Putem apoi determina si densitatile de repartitie marginale pentru Y1 si Y2 . F. y) dy si.40 Fie vectorul aleator V = (X1 . Y2 ) : Ω → R2 . Y sunt independente stochastic.Elemente in Teoria probabilit µilor 43 Functii de doua variabile aleatoare: Fie X. Fie functia τ : D1 → D2 .

rep n→∞ . Xn converge aproape sigur la X (notat Xn −→ X ) dac  P ( lim Xn = X) = 1. ∀g : Rd → R. Deniµia 2. dac  lim |Xn (ω) − X(ω)|r dP (ω) = 0. sau Xn ⇒ X ) dac  lim E(g(Xn )) = E(g(X)).s. P ) un cîmp de probabilitate ³i Xn . si aam densitatea de repartitie a catului X1 . (4) Xn converge in repartitie la X (notat −→ X. dac  ∀ > 0. n→∞ (2) Xn converge in probabilitate la X (notat Xn −→ X ). continu  ³i m rginit . X : Ω → R o variabila aleatoare cu media m si dispersia σ 2 nite.43 (1) Spunem ca: a. y ). P (Ω0 ) = 1. v) |u| dv. −∞ 2. 2 ∞ f X1 (u) = X2 f (u v. X Avem |J| = |y1 |.  1 1 2 1 1 2   x2 = y2 = τ2 (y1 .44 Transformarea inversa este:   x = y · y = τ (y . Lr n→∞ Ω echivalent cu n→∞ R lim |xn − x|r f (x)dx = 0. F. n→∞ echivalent cu relatia ∃ Ω0 ∈ F. lim P ({ω : |Xn (ω) − X(ω)| ≥ }) = 0. astfel încît lim Xn (ω) = X(ω). ∀ω ∈ Ω0 . y2 ). n→∞ prob (3) Xn converge in medie de ordin r la X (notat Xn −→ X ).16 Tipuri de convergenµ  a sirurilor de variabile aleatoare Fix m (Ω.

a. . (2. prob a. P ) → R. . X2 . din sirul de mai sus sunt independente stochastic.s. Ne-am dori ca acest sir sa detina aceeasi informatie (din punct de vedere probabilistic) ca si X . n→∞ Teorema 2.44 (legaturi intre diverse tipuri de convergenta) (a) (b) Lr Xn −→ X implic  Xn −→ X. .. Desi avem de-a face cu un sir de functii cu ce iau valori intamplatoare.46) Daca.a. ∀x ∈ R. 2.a. ca un model pentru repetari independente ale experimentului in aceleasi conditii. F. se numesc identic repartizate daca functiile corespunzatoare de repartitie satisfac sirul de egalitati: FX1 (x) = FX2 (x) = . P ) → R o v. . ∀x punct de continuitate pentru FX . . . . introducem notiunea de variabile aleatoare identic repartizate.a. In acest scop. suma unui numar sucient de mare de variabile aleatoare isi pierde caracterul aleator. F. P ) un camp de probabilitate si X : (Ω.17 Teoreme limit  Fie (Ω. prob Xn −→ X implic  Xn −→ X (din inegalitatea lui Markov). (c) Xn −→ X implic  Xn ⇒ X. Xn . in plus. . F. Deniµia 2. .45 Variabilele aleatoare X1 .Elemente in Teoria probabilit µilor (5) 45 Xn converge la X în sensul funcµiei de repartiµie dac  lim FXn (x) = FX (x). . = FXn (x) = . în funcµie de repartiµie ³i în funcµie caracteristic . Putem modela repetitia acestui experiment prin introducerea unui ³ir de v. ce inregistreaza rezultatele posibile a unui anumit experiment aleator. ∀t ∈ Rd . prob (d) Urm toarele tipuri de convergenµ  sunt echivalente: în repartiµie. . . atunci putem privi acest sir de v. . (Xn )n∈N : (Ω. presupunem ca v. n→∞ (6) Xn converge la X în sensul funcµiei caracteristice dac  lim φXn (t) = φX (t).

daca Xn sunt identic repartizate. sirul frecventelor relative converge a.s. P( Conform inegalitatii lui Cebîsev aplicate variabilei aleatoare Sn −E n Sn n ≥ ≤ 1 2 D2 Sn n = 1 1 2 D (Sn ) → 0.47 anterioara devine: In plus. potrivit normalizat . −→ 0). n→∞ n2 lim atunci Sn − E(Sn ) prob −→ 0. teorema ne spune ca.. cu o probabilitate foarte mare. (respectiv. cu E(Xn ) = m. daca se efectueaza o selectie de volum mare N si se obtin νN cazuri favorabile. legea slaba (respectiv. pentru orice > 0. desi variabilele aleatoare independente pot lua valori departate de mediile lor. β2 (Xn ) < ∞). ∀n ∈ N.s. . avem: n cand n → ∞.s. Asta inseamna ca. tare) a numerelor mari daca: (n → ∞) Sn − E(Sn ) prob Sn − E(Sn ) a. (2. n n Teorema 2. a. Daca νN este numarul de realizari ale lui A din cele N experiente atunci..47) Cu alte cuvinte.46 n Teoremele limit  clasice descriu comportarea asimptotic  a sumei Sn = Spunem ca sirul (Xn )n urmeaza k=1 Xk . n Astfel. la probabilitatea p. Demonstraµie. atunci putem arma ca. (ii) 1 2 D (Sn ) = 0.48 Teorema lui Bernoulli) Sa consideram o experienta in care probabilitatea de realizare a unui eveniment A este P (A) = p. −→ 0.46 (Cebîsev) Dac  v. Teorema 2. media aritmetica a unui numar sucient de mare de astfel de variabile alatoare ia valori in vecinatatea lui m. probabilitatea evenimentului cercetat este egala cu frecventa relativa. (Xn )n∈N∗ satisfac condiµiile: (i) toate Xn admit momente absolute de ordin 2 (i. atunci concluzia Sn prob −→ m.a.e. avem: n→∞ lim P νN −p < N = 1. 2 n2 Observaµia 2. Se fac N experiente independente. n (n → ∞) Sn .

atunci sirul (Xn )n urmeaza legea slaba a numerelor mari. (Xn )n∈N sunt independente ³i identic repartizate. Observam ca Xi ∼ B(1. sunt variabile aleatoare ce admit momente absolute de ordin 1. independente. .49 (Hincin) (legea slab  a numerelor mari) Dac  Xn . obtinem: N ≥1− D2 νN N 2 P echivalent cu νN νN −E N N νN −p < N < .48) Observaµia 2. k=1 a. Teorema 2. ≥1− p(1 − p) .52 (TLC) (teorema limit  central ) Dac  v. p).Elemente in Teoria probabilit µilor 47 Demonstraµie. P de unde concluzia dorita. n ≥ 1. N 2 Teorema 2. Aplicand inegalitatea lui Cebîsev variabilei aleatoare νN . E(νN ) = N p. ∀n ∈ N∗ . 1). astfel incat Xi =   1. (2.a. daca in experienta i evenimentul A s-a realizat. Atunci sirul (Xn )n satisface legea tare a numerelor mari. avem: n Xi = νN ∼ B(n.s (n → ∞). Atunci. cu m ³i σ 2 nite. i=1 D2 (νN ) = N p(1 − p). sunt identic repartizate si E(|X1 |) < ∞. deoarece experimentele sunt independente. adica: 1 n n Xk −→ m. daca experienta i evenimentul A nu s-a realizat. Vom asocia ecarei experiente i o variabila aleatoare Xi .51 Concluzia legii slabe a numerelor mari se mai poate scrie si sub forma: P n→∞ lim X1 + X2 + · · · + Xn =m n = 1.50 (Kolmogorov) (legea tare a numerelor mari) Fie sirul de v. sunt independente doua cate doua si identic repartizate. atunci: σ n 1 √ n Xk − nm k=1 ⇒ Y ∼ N (0. Teorema 2.a. pentru n → ∞.    0. (Xn )n∈N∗ . Fie E(Xn ) = m. p).

p) si e Sn = . atunci un numar n astfel incat n > 30 ar  sucicient pentru aproximarea cu repartitia normala desi. convergenµa din teorema limit  central  este echivalent  cu n→∞ lim P (Zn ≤ x) = Θ(x). ∀x ∈ R. 1). . o egalitate. . . X2 . un sir de v. identic repartizate. Se pune problema: de Moivre-Laplace de Cat de mare ar trebui sa e n. atunci TLC devine 1 √ n n Xk ⇒ Y ∼ N (0. k=1 Atunci.a. σ 2 = 1. Xn . X = (b) Notam cu Sn − nm √ σ n n k=1 n (2.a. 1). n Zn = not σ n 1 √ Xk − nm . Sn = este o v.51) (b) Daca m = 0. Un exemplu ar  aproximarea repartiµiei normale cu repartiµia binomial  cînd numarul de încercari e foarte mare (vezi teorema lui mai jos). pentru n sucient de mare. atunci. mai putem spune ca distributia v. Sau. √ ). cu o v.a. (d) Legea tare a numerelor mari e foarte util  în metode de simulare tip Monte Carlo. (2. de repartitie N (0.50) unde Θ(x) este denita in (2.54 (de Moivre . in practica. avînd orice tip de repartitii (atît timp cît variaµia lor e nit ). sau n→∞ lim P a≤ Sn − nm √ ≤b σ n 1 =√ 2π b a e−x dx = Θ(b) − Θ(a).48 Observaµia 2.Laplace) Fie X1 . ind adevarata pentru orice n ∈ N∗ .a. . Teorema 2. identic repartizate B(1. independente stochastic. independente stochastic si identic repartizate. Daca {Xk }k nu sunt normal repartizate. suma standardizata. pentru ca teorema limita centrala sa e aplicabila? Daca variabilele aleatoare {Xk }k sunt deja normal repartizate. de fapt.40). k=1 (c) TLC ne permite s  aproxim m sume de v. normal .a. pentru n → ∞. . atunci teorema aproximarea sumei standardizate cu o variabila normala este. daca avem un sir de v. daca repartitia lui Xk este simetrica. .a.49) 1 n σ Xk este aproximativ normal  N (m. . aproximarea ar putea  buna si pentru un numar n mai mic de 30.53 (a) Teorema TLC ne spune ca. 2 (2.

(2. cu media np si dispersia npq . • aproximarea este una sucient de buna daca np > 5 si n(1 − p) > 5.39) si (2. daca parametrul n este sucient de mare. tinand cont ca E(Sn ) = np si D2 (Sn ) = npq. Demonstratia rezulta imediat din (2. (2. k + 1 − np √2 npq unde Φ si Θ sunt denite in (2. avem: lim P Sn − np a≤ √ ≤b npq 1 =√ 2π b a n→∞ e−x dx. . • aceasta aproximare poate  imbunatatita daca aplicam factori de corectie.52) Demonstraµie. atunci o variabila aleatoare bi- nomiala poate  aproximata cu una normala.56 O moneda ideala este aruncata de 100 de ori.Elemente in Teoria probabilit µilor 49 X1 + X2 + · · · + Xn . Mai putem scrie si: P (X ≤ k) = Θ k + 1 − np √2 npq . In practica. Observaµia 2.54) 2.51). Atunci. o varianta imbunatatita: 1 Φ npq k − np √ npq . respectiv. Termenul 1 din (2.55 Asadar.54) este folosit ca o valoare 2 de ajustare cand se face aproximarea unei variabile aleatoare discrete cu una continua. 2 (q = 1 − p) (2. Astfel putem scrie: P (X = k) = √ sau.18 Exercitii rezolvate Exerciµiu 2. pentru orice −∞ < a < b < ∞. iar X este variabila aleatoare ce reprezinta numarul de fete cu stema aparute.53) P (X = k) = P (k − = P = Θ 1 1 <X <k+ ) 2 2 1 k − 1 − np k + 2 − np X − np < √ < √2 √ npq npq npq −Θ k − 1 − np √2 npq .40).

0737. (b) Notam cu FX functia de repartitie pentru variabila aleatoare binomiala X . obtinem: P (45 ≤ X ≤ 55) ≈ Θ 55 + 1 − 50 √2 25 −Θ 45 − 1 − 50 √2 25 = 0. Atunci.5 · 0.5)100−k = 0. Cu varianta imbunatatita. aceste probabilitati pot  calculate folosind codul din Exercitiul 3.5)48 = 0.5 √ 52 − 50 100 · 0. in magazin sa intre cel putin 200 de clienti? Calculati aceasta probabilitate in doua moduri: folosind functia de repartitie Poisson si folosind aproximarea cu repartitia normala.54). obtinem: P =Θ 52 + 1 − 50 √2 25 −Θ 1 52 − 2 − 50 √ 25 ≈ 0. Stiind ca numarul clientilor pe ora este o variabila aleatoare repartizata Poisson.8951.57 (a) In magazinul de la coltul strazii intra in medie 20 de clienti pe ora. Daca aproximam rezultatul folosind formula (2.11 din capitolul urmator.7287.5 · 0.5)52 · (0.5)k · (0. sa se determine care este probabilitatea ca intr-o anumita ora sa intre in magazin cel putin 15 clienti? (b) Care este probabilitatea ca.50 • (a) Care este probabilitatea de a obtine exact 52 de steme? • (b) Sa se calculeze P (45 ≤ X ≤ 55).0736.  (a) Avem de calculat P = P (X = 52). 0. obtinem: P =√ 1 Φ 100 · 0.  (a) P1 = P (X ≥ 15) = 1 − P (X < 14) = 1 − FX (14) = 0.0735. asadar rezultatul exact este: 52 P = C100 · (0. 10 10 (b) P2 = P ( k=1 Xk ≥ 200) = 1 − P ( k=1 Xk < 199) = 1 − F Xk (199) = 0.5094.5). Daca folosim aproximarea cu repartitia normala. √ In Matlab. Folositi aproximarea cu o variabila aleatoare normala. P (45 ≤ X ≤ 55) = P (X ≤ 55) − P (X < 45) = FX (55) − FX (44) 55 = k=45 k C100 · (0. intr-o anumita zi de lucru (de 10 ore). .5 ≈ 0.7287. Exerciµiu 2. Insa X este o variabila aleatoare distribuita B(100.

Elemente in Teoria probabilit µilor 10 51 unde k=1 Xk ∼ P(200). .5141.5 √ 200 P2 = 1 − Θ =1−Θ = 0. aceste probabilitati pot  calculate folosind codul din Exercitiul 3.5 − 200 √ 200 −0. gasim ca 199 + 0. Aproximand cu repartitia normala. In Matlab.16 din capitolul urmator.

2 Exerciµiu 2.9 Exerciµiu 2.6 Exerciµiu 2.4 Exerciµiu 2.19 Exercitii propuse Exerciµiu 2.7 Exerciµiu 2.5 Exerciµiu 2.10 .52 2.1 Exerciµiu 2.8 Exerciµiu 2.3 Exerciµiu 2.

numite Toolbox-uri. Acestea sunt colectii extinse de functii de programare de la o versiune la alta. La programele deja existente in Matlab-ului este usurinta cu care Matlab. modelarea si simularea datelor. Matlab-ul este realizat sub forma unui nucleu de baza. Matlab (siere M) care dezvolta mediul duri. diverse repartitii probabilistice (beta. Contine: analiza gracelor (GUI). în jurul caruia sunt construite toolbox-urile. Prezentam mai jos o scurta introducere in Matlab a principalelor functii si comenzi folosite in aceasta lucrare. puteti urmari o demonstratie a principalelor facilitati din Matlab. utilizatorul poate adauga propriile sale coMatlab-ul include aplicatii specice. cu interpretor propriu. matematici nanciare. cat si a pachetelor de functii (toolbox) de care ati putea  interesati. pentru a rezolva probleme din domenii variate. Pentru o tratare mai detaliata. Dintre acestea. amintim Statistics Toolbox. dedicat calculului numeric si reprezentarilor grace în domeniul stiintei si ingineriei. Cea mai importanta caracteristica a poate  extins. 53 . prelucrarea datelor experimentale. identicarea sistemelor. generarea numerelor aleatoare. matematici aplicate in diverse domenii etc. puteti consulta un manual de utilizare. Structural. Poisson. tastand demo. De asemenea. dezvoltând aplicatii specice domeniului în care lucreaza. calculul statistic.Chapter 3 Matlab Matlab Matlab-ul este Experienµe aleatoare în 3. Elementul de baza cu care opereaza matricea (MATrix LABoratory).1 Scurta introducere în MATLAB este un pachet de programe de înalta performanta. binomiala. Matlab este un software standard în mediile universitare. care este o colectie de functii folosite pentru analiza. hi-patrat). precum si în domeniul cercetarii si rezolvarii practice a problemelor legate de procesarea semnalelor.

ce urmeaza apoi a  compilate. acestea pot  vizualizate sau evaluate imediat.2720 • Variabilele sunt denite cu ajutorul operatorului de atribuire. poate reiesi din calculul unei expresii sau al unei functii. See also numel. De asemenea. folosirea comenzii lookfor este recomandata. De exemplu. si pot  utilizate fara a declara de ce tip sunt. De exemplu. Valoarea unei variabile poate : o constanta. descrieri statistice. lookfor length si gasim: NAMELENGTHMAX Maximum length of MATLAB function or variable name. introducand la linia de comanda >> a = sqrt((sqrt(5)+1)/2) Matlab deneste o variabila de memorie a. Odata introduse expresiile. • Comenzile Matlab pot  scrise in siere cu extensia . . to MAX(SIZE(X)) for non-empty arrays and 0 for empty ones. VARARGIN Variable length input argument list. De exemplu. Un sier-M consta dintr-o succesiune de instructiuni. cu posibilitatea apelarii altor siere-M precum si a apelarii recursive.54 analiza regresionala. caz in care ecare linie este prelucrata imediat. =. LENGTH Length of vector. VARARGOUT Variable length output argument list. >> help length aseaza urmatoarele: LENGTH Length of vector. O linie de • Matlab este un mediu computational orientat pe lucru cu vectori si matrice. • Comanda help poate  utilizata doar daca se cunoaste exact numele functiei. Altfel. It is equivalent LENGTH(X) returns the length of vector X.m. • Pentru a gasi informatii imediate despre vreo functie predenita. un sir de caractere. careia ii atribuie valoarea a = 1. comanda help va vine in ajutor. Matlab poate  folosit ca pe un mediu computational interactiv.

6] deneste matricea A = 1 4 2 5 3 6 • Apelul elementelor unei matrice se poate face prin comenzile A(i.x2. De exemplu.*sin(3*y) Putem apoi calcula f (7. 9.*sin(3*y)') f = Inline function: f(x. Aceste tipuri de siere permit crearea unor .7. O alta varianta de a deni un vector este v = linspace(x1. 3.3. cu pasul 2. 5. Pentru un vector coloana. Daca functia ce o avem de denit este una simpla. comanda >> A = [1 2 3. liniile se separa prin semnul punct-virgula. y) = e5x sin 3y : >> f = inline('exp(5*x). • Denirea matricelor se poate face prin introducerea explicita a elementelor sale sau prin instructiuni si functii. Functia eye(n) deneste matricea unitate de ordin n. • Dupa cum vom vedea mai jos.7. folosim punct-virgula intre elemente. 4. Functia zeros(m. denim functia f (x. π) prin >> f(7.5.9] (sau v = [1 3 5 7 9]) deneste un vector linie ce are componentele 1. trebuie tinut cont de urmatoarele: elementele matricei sunt cuprinse intre paranteze drepte ([ ]). La denirea explicita.y) = exp(5*x). adica v = [1.j) sau A(:.:) (elementele de linia i). • Functia Matlab ones(m.5. elementele unei linii trebuie separate prin spatii libere sau virgule.3.5827 • Un program Matlab poate  scris sub forma sierelor script sau a sierelor de tip functie. Spre exemplu. 5. Aceasta poate  realizata si folosind comanda v = 1:2:9 adica aseaza numerele de la 1 la 9. Ambele tipuri de siere sunt scrise in format ASCII.pi) 0.9].j) (elementele de coloana j ) sau A(i. avand toate componentele egale cu 1. la intervale egale intre x1 si x2. Matlab permite denirea unor functii foarte complicate prin scrierea unui cod.n).n) deneste o matrice m × n.Experienµe aleatoare în Matlab 55 cod v = [1. atunci avem varianta utilizarii comenzii inline. adica v este un vector linie cu n componente.n) deneste o matrice zero m × n. 7.

56 noi functii, care le pot completa pe cele deja existente. Un sier

script

este un sier extern care

contine o secvena de comenzi MATLAB. Prin apelarea numelui sierului, se executa secventa

Matlab continuta in acesta. Dupa executia completa a unui sier script, variabilele cu care
acesta a operat raman in zona de memorie a aplicatiei. Fisierele script sunt folosite pentru rezolvarea unor probleme care cer comenzi succesive atat de lungi, incat ar putea deveni greoaie pentru lucrul in mod interactiv, adica in modul linie de comanda.

Fisierele functie
Matlab creaza cadrul propice extinderii functiilor sale, prin posibilitatea crearii de noi siere. Astfel,
daca prima linie a sierului .m contine cuvantul function, atunci sierul respectiv este declarat ca ind sier functie. Variabilele denite si manipulate in interiorul sierului functie sunt localizate la nivelul acesteia. Prin urmare, la terminarea executiei unei functii, in memoria calculatorului nu raman decat variabilele de iesire ale acesteia. Forma generala a primei linii a unui sier este:

function[param_iesire] = nume_functie(param_intrare)
unde:

• function este este cuvantul care declara sierul ca sier functie; • nume_functie este numele functiei, care este totuna cu numele sub care se salveaza sierul; • param_iesire sunt parametrii de iesire; • param_intrare sunt parametrii de intrare.

Comenzile si functiile care sunt utilizate de noua functie sunt înregistrate intr-un sier cu extensia .m.

Exerciµiu 3.1

Fisierul medie.m calculeaza media aritmetica a sumei patratelor componentelor unui

vector X (alternativ, aceast lucru poate  realizat prin comanda mean(X.^2)):

function m2 = medie(X) n = length(X); m2 = sum(X.^2)/n;

Experienµe aleatoare în Matlab

57

3.2 Generarea de numere (pseudo-)aleatoare
Numerele generate de asadar el vor 

Matlab sunt rezultatul compilarii unui program deja existent in Matlab,
Putem face abstractie de modul programat de generare ale acestor

pseudo-aleatoare.

numere, si sa consideram ca acestea sunt numere aleatoare.

3.2.1

Generarea de numere uniform repartizate intr-un interval, U(0, 1)

Functia rand
• Functia rand genereaza un numar aleator repartizat uniform in [0, 1].
De exemplu, comanda X = (rand < 0.5); simuleaza aruncarea unei monede ideale. Mai putem spune ca numarul X astfel generat este un numar aleator repartizat B(1, 0.5).

• De asemenea, numarul
Y = sum(rand(10,1) < 0.5) urmeaza repartitia B(10, 0.5) (simularea a 10 aruncari ale unei monede ideale).

• rand(m, n) genereaza o matrice aleatoare cu m × n componente repartizate U(0, 1). • Comanda a + (b − a) ∗ rand genereaza un numar pseudo-aleator repartizat uniform in [a, b].

!

Printr-o generare de numere aleatoare uniform distribuite în intervalul (a, b) înµelegem numere

aleatoare care au aceea³i ³ans  de a  oriunde în (a, b), ³i nu numere la intervale egale.

Figura 3.1 reprezinta cu histograme date uniform distribuite in intervalul [−2, 3], produse de comanda

Matlab:
hist(5*rand(1e4,1)-2,100)

58

Figure 3.1: Reprezentarea cu histograme a datelor uniforme.

3.2.2

Generarea de numere repartizate normal, N (µ, σ)

Functia randn
• Functia randn genereaza un numar aleator repartizat normal N (0, 1). • randn(m, n) genereaza o matrice aleatoare cu m × n componente repartizate N (0, 1). • Comanda m + σ ∗ randn genereaza un numar aleator repartizat normal N (m, σ). De exemplu,
codul urmator produce Figura 3.2:

x = 0:0.05:10; y = 5 + 1.1*randn(1e5,1); hist(y,x) %% date distribuite N(5,1.1)

3.2.3

Generarea de numere aleatoare de o repartitie data

Comenzile

Matlab
legernd(<param>, m, n)

Experienµe aleatoare în Matlab

59

250

200

150

100

50

0

0

2

4

6

8

10

Figure 3.2: Reprezentarea cu histograme a datelor normale.

si

random('lege', <param>, m, n).
Oricare dintre cele doua comenzi genereaza o matrice aleatoare, cu m linii si n coloane, avand componente numere aleatoare ce urmeaza repartitia lege. In loc de lege putem scrie oricare dintre expresiile din tabelul din Figura 3.1. De exemplu,

normrnd (5, 0.2, 100, 10);
genereaza o matrice aleatoare cu 100 × 10 componente repartizate N (5, 0.2).

random ('poiss',0.01, 200, 50);
genereaza o matrice aleatoare cu 200 × 50 componente repartizate P oiss(0.01).

3.2.4

Metoda functiei de repartitie inverse (Hincin-Smirnov)
Fie X este o variabila aleatoare de o repartitie data, pentru care functia sa de repar-

Propoziµia 3.2

titie, F (x), este continua si strict crescatoate, in orice punct in care aceasta nu este 0 sau 1. Fie U

. F −1 (Un )} formeaza o selectie intamplatoare de numere ce urmeaza repartitia lui X . % functia expsel. .1)). hold on Z = sort(exprnd(lambda.3 am reprezentat grac o doua selectii de volum 100 de numere aleatoare repartizate exp(5). F −1 (u2 ).1))). . atunci {F −1 (U1 ). 1). F −1 (un )} formeaza o selectie intamplatoare de numere repartizat exp(λ). U2 .m % generez 100 de numere si le ordonez % desenez selectia si retin figura % generez 100 de numere cu exprnd . . avem ca {F −1 (u1 ). u2 . 1]. . F −1 (U2 ). . . . Atunci. . 1].   0 . F −1 (u) = Atunci. Exerciµiu 3. plot(Y). daca {u1 . 100.4 Fie variabila aleatoare X ∼ exp(λ). pentru care stim ca functia sa de repartitie este F : R −→ [0. Apelarea functiei se face prin tastarea in fereastra de lucru in function expsel(lambda) Y = sort(-lambda*log(1-rand(100. . 1). altfel. Matlab a comezii expsel(5). Aratam ca FY este tocmai functia de repartitie a lui X . . variabila aleatoare Y = F −1 (U ) urmeaza aceeasi repartitie ca si X . .60 o variabila aleatoare repartizata U(0. Functia Matlab care genereaza gura este prezentata mai jos.3 Fie X o variabila aleatoare ca in propozitia precedenta. u ∈ (0. . In Figura 3. 1] si F −1 este:    −λ ln(1 − u) . ∀x ∈ [0. Daca {U1 . 1). Un } sunt variabile aleatoare independentic stochastic si identic repartizate U(0. una generata prin metoda functiei de repartitie inverse. . Demonstraµie. un } sunt numere aleatoare uniform repartizate in [0. . Notez cu FY functia de repartitie pentru Y . cealalta generata de functia Matlab predenita exprnd. . Avem succesiv: FY (x) = P (Y ≤ x) = P (F −1 (U ) ≤ x) = P (U ≤ F (x)) = F (x). Putem astfel conclude ca: Propoziµia 3.

Astfel. pe cand ceil(x) face rotunjirea la numarul intreg aat la dreapta lui x. ceil. functia floor(x) este partea intreaga a lui x.1)). genereaza ecare cate 20 de numere intregi intre 0 si 10.'generare cu exprnd') Figure 3.'r*') % desenez Z cu rosu legend('metoda functiei inverse'. comenzile floor(11*rand(20. Diferenta dintre cele doua functii este ca floor(x) face rotunjirea la numarul intreg aat la stanga lui x. ceil(11*rand(20. fix Sunt functii folosite pentru generarea de numere aleatoare intregi. round.2.1)).3: Generare de numere aleatoare prin metoda functiei inverse. in directia lui .Experienµe aleatoare în Matlab 61 plot(Z. 3. De exemplu.5 Generarea de numere aleatoare intregi Functiile floor. Functiile round(x) si fix(x) rotunjesc numarul real x la cel mai apropiat numar intreg. distribuite uniform discret.

n) Table 3. λ) beta: repartitia β(m. σ) chi2: repartitia χ2 (n) t: repartitia student t(n) f: repartitia F(m. p) nbin: repartitia binomiala negativa BN (n. 3. b) exp: repartitia exponentiala exp(λ) gam: repartitia gamma Γ(a. b) unif: repartitia uniforma continua U(a. respectiv. p) poiss: repartitia Poisson P(λ) unid: repartitia uniforma discreta U(n) geo: repartitia geometrica Geo(p) hyge: repartitia hipergeometrica H(n. σ) bino: repartitia binomiala B(n. a.3 Repartitii uzuale in repartitii probabilistice discrete Matlab repartitii probabilistice continue norm: repartitia normala N (µ.1: Repartitii uzuale in Matlab .62 ±∞. in directia lui zero. n) logn: repartitia lognormala logN (µ.

n! A e matrice m × n. vector coloana cu 5 elemente. 3 6 9 12] size(A) det(A) inv(A) A' A(:.n) I = eye(n) A = [3/2 1 3 10. din 2 in 2. 1. dimensiunea matricei A. vector linie cu 7 elemente. e. suma cumulat  a elementelor vectorului X . matrice unitate. cauta intrarile in Matlab pentru normal. ordoneaza componentele lui X in ordine crescatoare.*Y cumsum(X) cumprod(X) min(X) max(X) sort(X) erf(X) exp(x) log(x) sqrt(x) factorial(n) A = ones(m. n × n.01.77] X = -10:2:10 length(X) t=0:0. produsul a doi vectori. deneste o diviziune a [0. ridica toate componentele vectorului X la puterea a doua.0 . produsul cumulativ al elementelor vectorului X . scoate primele 20 de linii ale lui A. cu toate elementele 1. inversa matricei A. . vector ce contine numerele intregi de la −10 la 10. 6 5 8 11.^2 X. matrice m × n zero.01:3*pi X. 3π] cu diviziunea 0. matrice 3 × 3. determinantul matricei A. lungimea vectorului X . transpusa matricei A. coloana a 7-a a matricei A.4 Alte comenzi utile în Matlab help rand lookfor normal X=[2 4 6 5 2 7 10] X=[3.7) A(1:20.Experienµe aleatoare în Matlab 63 3. functia eroare.k) 1e5 exp(1) help specic pentru functia rand. calculeaza exponentiala ex . combin ri de n luate cate k. realizeaza minimum dintre componentele lui X . calculeaza logaritmul natural ln(x). realizeaza maximum dintre componentele lu X .1) nchoosek(n. 6. calculeaza radicalul ordinului doi dintr-un numar.n) B = zeros(m.5 . 105 .

sterge toate variabilele denite. analiza graca interactiva (GUI).'-') plot3(X. teste statistice. gaseste indicii elementelor nenule ale unui vector. reprezentarea prin bare. numite Toolbox-uri.64 plot(X(1:5). în special datorit  jocului de rulet  (ruleta = un generator simplu de numere aleatoare). distributii. dar a c p tat statutul de metod  numeric  din anii 1940. adauga titlu gurii. 3. Statistics Toolbox reprezinta o colectie de functii folosite pentru analiza. Nicolas Metropolis a adus contribuµii importante metodei. Table 3. deseneaza un grac in 3-D. modelarea si simularea datelor si contine: generarea de numere aleatoare. Este o metod  folosit  de secole. Acestea sunt colectii extinse de functii Matlab (siere-m) care dezvolta mediul de programare de la o versiune la alta pentru a rezolva probleme din domenii variate. iar numele vine de la cazinoul Monte Carlo din principatul Monaco.5 Metoda Monte Carlo Metoda Monte Carlo este o metod  de simulare statistic . ordonata.'*m') plot(t. descrieri statistice. analiza regresionala. reprezentarea prin histograme 3-D. În 1946. logaritmeaza valorile de pe abscisa.Y. unde se practic  foarte mult jocurile de noroc. resp..2: Funcµii Matlab utile Matlab-ul include aplicatii specice.X.Z) stairs(X) bar(X) sau barh(X) hist(X) hist3(x. cât ³i celor probabilistice ³i este folositoare în obµinerea de soluµii numerice pentru probleme care sunt prea dicile în a  rezolvate analitic. cu linie continua. deseneaza o functie scara.z) semilogx si semilogy hold on clf clear all title('Graficul functiei') find deseneaza primele 5 componente ale lui X .y. cu * magenta. De asemenea. retine gracul pentru a realiza o noua gura. Se poate aplica atât problemelor cu deterministe. . deseneaza gracul lui X versus t. ce produce soluµii aproximative pentru o mare varietate de probleme matematice prin efectuarea de experimenµe statistice pe un computer. sterge gura. reprezentarea prin histograme. Stanislaw Ulam (polonez n scut în Lvov) a devenit primul matematician care a dat un nume acestui procedeu.

pentru a evalua numeric integrala. atunci avem de ales una din urm toarele variante: (1) Încadr m gracul funcµiei f într-un dreptunghi D = [a.Experienµe aleatoare în Matlab 65 Are la baz  generarea de numere aleatoare convenabile ³i observarea faptului c  o parte dintre acestea veric  o proprietate sau anumite propriet µi. adic  P (A) f (N ) N Aceast  metod  nu e foarte ecient . În general. Orice eveniment zic care poate  v zut ca un proces stochastic este un candidat în a  modelat prin methoda MC. b] [a. Facem urm toarea experienµ  aleatoare: alegem în mod uniform (comanda în rand ne ofer  aceasta posibilitate Matlab) un punct din interiorul dreptunghiului ³i test m dac  acest punct se a  sub gracul lui f (x). b] × [c. d]. unde c < inf f ³i d > sup f .6 Integrarea folosind metoda Monte Carlo S  spunem c  dorim s  folosim metode Monte Carlo pentru evaluarea integralei b I= a f (x) dx. orice metod  care are la baza generarea de numere aleatoare în vederea determin rii rezultatului unui calcul este numit  o metod  Monte Carlo. Dac  dorim aplicarea metodei MC. . însa este foarte util  în cazul în care integrala este dicil (sau imposibil) de evaluat. (2) Din teorema de medie avem ca exista un numar E(f ) ∈ (a. Pentru un num r mare de experienµe. b] c  un punct ales la întamplare în interiorul dreptunghiului D s  se ae sub gracul funcµiei f (x). într-adev r. probabilitatea c utat  va  aproximat  de frecvenµa relativ  a realiz rii evenimentului. b) a. foarte mare pentru a avea o precizie bun . deoarece N trebuie sa e. (3. Repet m experienµa de un num r N (mare) de ori ³i contabiliz m num rul de apariµii f (N ) ale punctului sub grac. metoda Monte Carlo nu este prima alegere. Evalu m integrala folosindu-ne de calculul probabilit µii evenimentului A.1) În general.i. [a. I = (b − a)E(f ). 3. Aceast  metoda devine mai ecient  decât alte metode de aproximare când dimensiunea spaµiului e mare.

X ∼ U[a.4) unde f (x) =    1 b−a .a. I = mean(g) % genereaza 106 numere aleatoare U(−2.   0 Funcµia h(x) denit  mai sus este densitatea de repartiµie a unei v. s  se evalueze integrala 5 I= −2 e−x dx 2  x = 7*rand(1e6.3) b I = (b − a) a f (x)h(x) dx.^2).5) I unde Xk sunt v.a. . k=1 (3. k=1 (3. altfel. b]. iar relaµia (3. 5) 2 % g(x) = e−x 106 % media i=1 g(xi ) . Folosind legea slab  a numerelor mari. b].2) unde xk sunt numere aleatoare uniform distribuite în intervalul (a. k=1 (3. b].66 Putem evalua E(f ) prin E(f ) 1 N N f (xk ). Deci aproximarea integralei este: I (3) Putem rescrie integrala în forma b−a N N f (xk ). putem aproxima I prin: (3. V Exerciµiu 3. unde V ⊂ Rn .5 Utilizând metoda Monte Carlo. (3. distribuite U[a. b).4) se rescrie I = (b − a)E(f (X)).6) Putem generaliza metoda pentru a calcula integrale de tipul f (x) dx.1)-2. g = exp(-x. b−a N N f (Xk ). daca x ∈ [a.

7 Experimente aleatoare în Matlab Matlab. in cazul in care o urna are bile albe si negre in numar egal si extragem o bila la intamplare) • De asemenea.e.5).1)-2).^2))) % I ≈ 0. numarul Y = sum (rand(10.1 Simularea arunc rii unei monede • Comanda X = (rand < 0.1)<0.  estimate = mean(exp(rand(10^6.2525 √ Exerciµiu 3. Pentru aceasta vom utiliza functia rand ce genereaza un numar (pseudo-)aleator uniform in intervalul [0.5) (simularea a 10 aruncari ale unei monede ideale). 67 estimate = mean(exp(-((7*rand(10^6. simuleaza aruncarea unei monede ideale. 1] (i. restrâns. (e = I + 1). simularea Putem simula diverse experiente aleatoare folosind comenzile din aruncarii unei monede ideale sau a unui zar ideal.Experienµe aleatoare în Matlab sau.5) (similar cu schema bilei revenite. Vom mai spunem ca numarul X astfel generat este un numar aleator repartizat B(1. De exemplu.5) urmeaza repartitia B(10.1))+1) % e ≈ 2. orice punct din acest interval are aceeasi sansa de a apare la rularea comenzii..6 Evaluând integrala 1 I= 0 ex dx prin metoda Monte Carlo s  se estimeze valoarea num rului transcendent e.7183 √ 3.7. 0. 3. 0. .

5). daca alegem ca parametrul p al functiei sa e diferit de 0. N).5 0.m % aruncam moneda % valoarea de adevar a lui (x<p) % suma cumulata % vectorul nr de aruncari % frecventa relativa a stemei % reprezinta grafic Fn % axele % numele figurii % numele axelor moneda 1 1 5/6 3/4 probabilitatea probabilitatea zar 0. p]. axis([0 N 0 1]).4: Simularea arunc rii unei monede corecte (a) ³i a unui zar corect (b) Fisierul moneda. Sa se determine probabilitatea ca la aruncarea monedei s  obµinem fata cu stema si sa deseneze o gura care sa justice grac convergenta sirului frecventelor relative la aceasta probabilitate. Sn = cumsum(V). Fn = Sn.N]. title('moneda') xlabel('aruncari'). x = 1:N.68 Exerciµiu 3. 'm:').4(a). atunci cand probabilitatea de a obtine fata cu stema este p./Ar.5. function moneda(N. V = (x < p). x = rand(1. produce gracul din Figura 3. . moneda(1e5.0. e.g.p). Fn. 'b-'.5 1/4 1/6 0 0 10 1 10 10 aruncari 2 3 10 4 10 5 10 1 10 10 aruncari 2 3 10 4 10 5 Figure 3.m simuleaza aruncarea unei monede de un numar N de ori. De asemenea. se poate simula si aruncarea unei monede masluite. semilogx(1:N. [1. O rulare a functiei.7 S  se scrie o functie MATLAB care sa simuleze aruncarea repetata a unei monede corecte.ylabel('probabilitatea') % functia moneda.[p.

% functia dice. O rulare a functiei. 4.g. ( . avem 6 cazuri posibile. Ca o observatie. daca dorim sa simulam in Matlab aparitia fetei cu 3 puncte la aruncarea unui zar ideal. Pentru a simula acest experiment.2 Simularea arunc rii unui zar La aruncarea unui zar ideal. 3 ). ). ( .4(b)). 1] in 6 subintervale de lungimi egale: (0. freq = cumsum(Z1). ). u = rand(1. Vom vedea mai tarziu (vezi metoda Monte Carlo) ca alegerea acestor intervale cu capete inchise. ).m simuleaza aruncarea unui zar corect de un numar N de ori. axis([0 n 0 1]).8 S  se simuleze în MATLAB aruncarea repetata a unui zar corect. function dice(N). 1 1 2 2 3 3 4 4 5 5 ). modicam in mod convenabil problema. Z1 = (u < 3/6 & u > 2/6).Experienµe aleatoare în Matlab 69 3. . 1) . % axele % numele figurii dice(1e5) produce gracul din Figura 3. n]. ( .ylabel('probabilitatea') Fisierul dice. deoarece cele 6 fete sunt identice. sa zicem in ordinea crescatoare a punctelor de pe ele.2. putem simplica aceasta comanda si scrie (rand < 1/6). 6 6 6 6 6 6 6 6 6 6 corespunzatoare. 5 sau 6 puncte. celor sase fete.7. ).m % probabilitatea aparitiei fetei ∴ % aparitia fetei ∴ % frecventa relativa % activeaza fereastra din stanga semilogx(1:n. Exerciµiu 3. Vom considera ca punctele din intervalul [0. vom alege (comanda rand) un numar "la intamplare" din intervalul [0. Acum.1/6]. subplot(1. 3. si anume. deschise sau mixte nu are efect practic asupra calculului probabilitatii dorite. aparitia unei fete cu 1. e. [1/6. Asadar. title('zar') xlabel('aruncari'). comanda 6 6 Matlab (rand < 3/6 & rand > 2/6) simuleaza aruncarea unui zar ideal. respectiv./(1:n). Sa se determine probabilitatea ca la aruncarea zarului s  obµinem faµa cu trei puncte si sa deseneze o gura care sa justice grac convergenta sirului frecventelor relative la aceasta probabilitate (vezi Figura 3.4(b).2). freq. 1] formeaza multimea tuturor cazurilor posibile si impartim intervalul [0. [1. 'b-'. 'm:'). 1] si vericam daca acesta se aa in intervalul ( 2 . n). 2. ( . ( .

S  not m cu A evenimentul ca s geata s  se înng  chiar în interiorul discului. (3. % deseneaza cercul si punctele % numarul de succese % frecventa relativa % aproximarea lui pi % deseneaza axele \pi \approx '.X. Cu alte cuvinte. spre o tabl  p trat  din lemn. N aria disc Pe de alt  parte. Metoda care a stat la baza aproxim rii lui π este o metoda Monte Carlo.5).nu câ³tigaµi nimic. A³adar. S = sum((x-. ea se înnge în tabl .1). approxpi =4*Prob. Se cere s  se aproximeze valoarea lui π pe baza jocului de mai sus ³i s  se scrie un program în Matlab care s  simuleze experimentul. În cazul în care num rul de arunc ri N e foarte mare. Avem de aruncat o s geat  ascuµit . title([int2str(N). y = rand(N.'r-').9 (aproximarea lui π folosind jocul de darts ) În ce const  jocul? S  presupunem c  suntem la nivelul încep tor.5). ce poate penetra cu u³urinµ  lemnul. num2str(approxpi)]).y) . este bine aproximat  de limita ³irului frecvenµelor relative. Prob = S/N. atunci probabilitatea evenimentului A. % numar de aruncari % genereaza vectorul theta % (x. dac  nu .^2 <= 1/4).7) Functia Matlab care aproximeaza pe π este prezentata mai jos. presupunem c  de ecare data când aruncaµi s geata. axis([0 1 0 1]). Repet m jocul de un num r N de ori ³i contabiliz m la sfâr³it num rul de puncte acumulate. în interiorul c ruia se a  desenat un cerc circumscris p tratului. .y.'b+'.70 3. x = rand(N. plot(x. dar nu a³a de slab încât s  nu nimeriµi tabla. s  zicem c  acest num r este νN . X = 1/2+1/2*cos(theta). a carei suport teoretic este prezentat in paragraful . Dac  s geata se înnge în interiorul discului atunci aµi câ³tigat un punct.2*pi.N). P (A). putem aproxima π prin 4 π 4 νN N (pentru N 1). adic  lim n→∞ νN . P (A) = aria perete = π . Y = 1/2+1/2*sin(theta).8 Probabilit µi geometrice Exerciµiu 3.1).' aruncari. S  presupunem c  sunteµi un juc tor slab de darts (asta implic  faptul c  orice punct de pe tabl  are aceea³i ³ans  de a  µintit).^2 + (y-.intepaturi % cerc in polar function Pi = Buffon(N) theta = linspace(0.Y.

Experienµe aleatoare în Matlab 71 Figure 3. In comenzile de mai sus. Functiile de probabilitate. x. F −1 (y). 3. x. f (x) (pentru variabile aleatoare continue). f (x) (pentru variabile aleatoare discrete). ne genereaza Figura 3. se introduce cu comanda icdf. sau LEGEcdf(x. <param>). Astfel. si densitatea de repartitie. x este un scalar sau vector pentru care se calculeaza f (x) sau F (x).5: Simularea jocului de darts. <param>). F (x). <param>). <param>) Functia de repartitie. y.5.9 Repartitii probabilistice in Matlab sau LEGEpdf(x. <param>). se introduc in MATLAB cu ajutorul comenzii pdf. LEGE poate  oricare dintre legile de repartitie din tabelul 3. astfel: cdf('LEGE'. Inversa functiei de repartitie pentru repartitii continue. a unei variabile aleatoare se poate introduce in MATLAB cu ajutorul comenzii cdf. astfel: icdf('LEGE'. y este un scalar sau vector pentru care .1. <param>) sau LEGEinv(y. Buffon(2000). o simpla rulare a functiei. astfel: pdf('LEGE'.

Pentru un x ∈ R.10 Fie X o variabila aleatoare si F (x. θ ind parametrul repartitiei.72 se calculeaza F −1 (y) iar <param> este un scalar sau un vector ce reprezinta parametrul (parametrii) repartitiei considerate. 5.11 O moneda ideala este aruncata de 100 de ori. 2).θ). De exemplu. deoarece in acest caz P (X ≤ x) = P (X < x) + P (X = x) = P (X < x). 4.3). 0.x. daca X ∼ B(10. atunci P (X < x) =   P (X ≤ [x])  . 10. • (a) Care este probabilitatea de a obtine exact 52 de steme? • (b) Sa se calculeze P (45 ≤ X ≤ 55). daca X ∼ N (5. θ) functia sa de repartitie. 2). 4. Observaµia 3. relatia matematica P (X ≤ x) = F (x) o putem scrie astfel in Matlab: cdf('numele repartitiei lui X'. x = m ∈ Z.8). atunci P (X < 4) = cdf('norm'. unde [x] este partea intreaga a lui x.8) Problema poate aparea la evaluarea in Matlab a probabilitatii P (X < x). . Exerciµiu 3. atunci corespondentul in Matlab este tot (3. atunci P (X < 5) = P (X ≤ 4) = cdf('bino'.3) = 0. x nu e intreg   P (X ≤ m − 1) . iar X este variabila aleatoare ce reprez- inta numarul de fete cu stema aparute. 0. (3. Folositi aproximarea cu o variabila aleatoare normala. De exemplu. Daca X este de tip discret. Daca repartitia considerata este una continua.8497.

5/5) % solutia exacta % solutia aproximativa Exerciµiu 3. FP. care P (T ≥ 15) = 1 − P (T < 15) = 1 − FT (15).0.32]) title('Functia de probabilitate') subplot(1.5/5) . aati care sunt sansele ca ea sa astepte cel putin 15 minute pana vine urmatorul tramvai. Stim ca T ∼ exp(λ). √ Exerciµiu 3.100. Urmatoarea functie Matlab (prin comanda fF(10. si aceasta este 1 .13 nomiale. ceea ce implica 47.normcdf(1.52)*(0. in medie. FP).1). aceste este de 20 de minute. si a gasit ca. Asadar.0.5 0 0.2).0. calculate analitic in Exercitiul 2. '*') axis([-0. FP=pdf('bino'.5/5) % solutia exacta % solutia aproximativa 1 % solutia aproximativa 2 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~ P2 = binocdf(55.p).100.  este: Notam cu T timpul de asteptare in statie intre doua sosiri succesive ale tramvaiului si cu FT functia sa de repartitie. n . Daca o persoana a ajuns in statie exact cand tramvaiul pleca.24% sanse. bar (x. x=0:n.56 din capi- tolul precedent.cdf('exp'.5) .normcdf(-5.3.12 Cineva a inregistrat zilnic timpul intre doua sosiri succesive ale tramvaiului intr-o anumita statie.5/5) .binocdf(44. plot(x. axis ([-0.3.5 n+0. subplot(1. avem de calculat P (T ≥ 15).5)^48 P1 = 1/5*normpdf(2/5) P1 = normcdf(2.Experienµe aleatoare în Matlab Codul 73 Matlab urmator calculeaza probabilitatile cerute.5) P2 = normcdf(5.5)) reprezinta grac (vezi Figura 3. P1 = nchoosek(100.6) functia de probabilitate (prin puncte si bare) si functia de repartitie ale legii de probabilitate bi- function fF(n.15. Se stie ca acest timp este distribuit exponential. x.5 0 0.4724. unde λ = 20.5 n+0. 20) = 0.5)^52*(0.32]) title('Functia de probabilitate') .p).

Exerciµiu 3.0.5 0.14 Sa presupunem ca X este o v. 1).p).75 0.91. X repartizata normal.3 Functia de probabilitate 1 Functia de repartitie 0. cu media m = 175. σ). subplot(1.3. Se stie ca P (X ≤ 170) = 0.3 0.3.74 FR=cdf('bino'.1. asadar σ 2 ≈ 15. stairs(x.15 Presupunem ca inaltimea unei persoane este o v.  Fie v. Media de inaltime a jucatorilor unei echipe de baschet masculin este 195 cm. Din conditia P (X ≤ 170) = 0.axis ([0 n 0 1]) Functia de probabilitate 0.1 0. 0. σ de unde − 5 = icdf('norm'.a. gasim ca Y ∼ N (0.25 0 0 5 10 0 0 2 4 6 8 10 0 0 5 10 Figure 3.5) Exerciµiu 3. n . σ Deoarece X ∼ N (175. . σ √ de unde σ ≈ 3. sa se determine dispersia lui X . x.a. obtinem: 5 P (Y ≤ − ) = 0.1 0. FR) title('Functia de repartitie'). Inaltimea usii de la vestiarul echipei este de 2 metri. continua ce reprezinta inaltimea (in cm) barbatilor dintr-o tara.2 0. cu deviatia standard 5 cm.6: Reprezentarea functiilor de probabilitate si de repartitie pentru B(10.a.1.1.3).1) = −1.2 0. Y = X − 175 .0. Stiind ca X este normal distribuita.1.28.

cu P (X = 1) = p si X = −1. (p ∈ (0. P2 = 1 .84.5/sqrt(200)) √ Exerciµiu 3. P1 = 1 . P1 = 1 .87%.20). 195. . Stiind ca numarul clientilor pe ora este o variabila aleatoare repartizata Poisson. P2 = 1 .normcdf(200.17 (a) Simulati in MATLAB o variabila aleatoare discreta X ce poate lua doar doua valori.normcdf(190. Procentul cautat este r = P1 · 100 ≈ 15. (b) Calculam P2 = P (190 < X < 210) = FX (210) − FX (190) ≈ 0.5))*100 P2 = normcdf(210. X = 1. cu P (X = −1) = 1 − p.  codul Solutiile analitice au fost prezentate in capitolul anterior.  (a) Probabilitatea ca jucatorii sa e "prea inalti" este: P1 = P (X > 200) = 1 − P (x ≤ 200) = 1 − FX (200) ≈ 0.200). Prezentam aici Matlab pentru calculul probabilitatilor cerute. sa se determine care este probabilitatea ca intr-o anumita ora sa intre in magazin cel putin 15 clienti? (b) Care este probabilitatea ca.poisscdf(14. intr-o anumita zi de lucru (de 10 ore).Experienµe aleatoare în Matlab 75 (a) Determinati procentul dintre jucatorii echipei care sunt prea inalti pentru a trece de aceasta usa fara sa se aplece. (b) Sa se determine probabilitatea ca inaltimile jucatorilor sa e intre 190 cm si 210 cm. sau.5) . (Presupunem ca se apleaca doar daca inaltimea lor este mai mare de 2m). in magazin sa intre cel putin 200 de clienti? Calculati aceasta probabilitate in doua moduri: folosind functia de repartitie Poisson si folosind aproximarea cu repartitia normala.1587. 195. 195.5) √ Exerciµiu 3.16 (a) In magazinul de la coltul strazii intra in medie 20 de clienti pe ora. 1)).poisscdf(199. in Exercitiul 2.57.normcdf(-0.

plot(1:N. Codul MATLAB este urmatorul: N = input('N = '). Arunc o moneda de N ori.1). La nal. u = rand(N. % introduc probabilitatea p % variabila aleatoare X (b) Procedam astfel: mai intai initializez un vector ce are toate componentele egale cu −1.76 (b) Consideram urm torul joc: se arunc  o moned  corect  de N ori ³i dac  apare stema câ³tig m 1 RON . S(u < 0. De asemenea. S = -1*ones(N. 1). 1]. Daca apare evenimentul favorabil. Cu comanda rand.18 Sa se simuleze in MATLAB o variabila aleatoare ale carei valori reprezinta numarul de esecuri avute pana la aparitia pentru prima oara a fetei cu 3 puncte la aruncarea unui zar ideal. iar dac  apare banul. X = 2*(rand < p)-1. Asadar. comanda MATLAB (rand < p) ne aseaza valoarea de adevar a propozitiei rand < p. calculam lungimea vectorului ce are drept componente rangurile pentru care vctorul Castig este 0. atunci pentru aruncarea (componenta) respectiva schimbam valoarea −1 (pierdere) in +1 (castig). 1) % aruncare favorabila => schimb componenta -1 cu 1 % suma cumulata la fiecare moment % deseneaza graficul % numarul de componente nule √ Exerciµiu 3. '*') Z=length(find(Castig == 0)) % numar de repetitii ale jocului % un vector cu toate componentele egale cu -1 % un vector cu N numere U(0. Castig = cumsum(S). pentru a simula variabila aleatoare Bernoulli ceruta folosim codul: p = input('p = '). care reprezint  câ³tigul S(n) cumulat la ecare aruncare. Atunci. Care este probabilitatea de a obtine aceasta fata din cel mult 3 aruncari? .a. MATLAB aseaza 1 daca rand < p (probabilitatea ca aceasta sa se intample este p) si aseaza 0 daca rand > p (probabilitatea evenimentului este 1 − p).7). Prin urmare. S  se reprezinte v. Pentru a contabiliza numarul de zerouri ale vectorului Castig.5) = 1.1). s  se contabilizeze de câte ori s-a întors balanµa la 0. pierdem 1 RON .  (a) Stabilim un p ∈ [0. generam un numar aleator dupa repartitia U(0. Castig. fac suma cumulata la ecare pas si o reprezint grac (vezi gura 3.

atunci cand numarul de extrageri in schema binomiala este un numar mare. X = geornd(1/6) P = geocdf(2.a.10 Justicari grace ale teoremei limita centrala Exerciµiu 3. Aceasta este o demonstratie graca a urmatoarei convergente: k lim Cn pk q n−k = n→∞ p→0 e−λ λk .8 am reprezentat grac (cu bare) functiile de probabilitate pentru repartitiile binomiala si Poisson.19 In Figura 3. forma gracului din Figura 3.1/6) √ 3.  Fie X v. k! (3. Probabilitatea de a obtine fata asteptata din cel mult 3 aruncari este totuna cu probabilitatea de a obtine cel mult 2 esecuri pana la aparitia acestei fete. justicand grac cum ca functiile de probabilitate pentru binomiala (albastru) si Poisson (rosu) tind la densitatea de repartitie . cele doua grace se suprapun.miscare aleatoare (brownian ).7: Suma cumulata .8 aminteste de clopotul lui Gauss. Observam ca pentru un numar n sucient de mare. cautata.Experienµe aleatoare în Matlab 200 77 150 100 S(n) 50 0 −50 −100 0 1 2 3 4 5 aruncari 6 7 8 9 10 x 10 4 Figure 3.9) λ=np Vericati aceasta limita folosing metode analitice! Mai mult. Aceasta urmeaza repartitia Geo(1/6).

lambda = n*p. Codul MATLAB ce genereaza gracul din Figura 3. clf. fP=poisspdf(x.3. p = 0.[fB'.fP']) Exerciµiu 3. n ∈ {20. am reprezintat cu albastru functia de repartitie pentru Sn (Sn ∼ B(n.9 este: clear all. Din cele cele 4 grace. p)). p = 0.9.08 0. 1).04 0.12 0. fB=binopdf(x.200. observam cum gracul functiei de repartitie pentru Sn se apropie de gracul functiei de repartitie pentru N (0. pentru n = 0.06 0.3 si patru valori ale lui n. cand n este sucient de mare (pentru n = 10000 se suprapun gracele). bar(x'. b=fix(lambda+3*sqrt(lambda)).lambda). p) si P(np) pentru n = 100.15 pentru repartitia normala. 10000}. for i=1:4 % reseteaza var. 200.10000]. n = input('n=').50. n = [20.p). a=fix(lambda-3*sqrt(lambda)). 50. %% a si b sunt valorile din problema celor 3 sigma x=a:b.n. p = input('p=').78 0.20 In Figura 3. 1).8: B(n. de memorie si figura . functia de repartitie pentru o variabila aleatoare repartizata N (0.1 0.02 0 0 5 10 15 20 25 30 Figure 3. iar cu linie rosie.

05]) end % functia de repartitie pentru N (0.8 0. 0. p). y.8 0.6 0.05 4.normcdf(x. hold on.Experienµe aleatoare în Matlab 79 x = -4:0. subplot(2. title(['n = '.i).4 0.2 0 −4 −2 0 2 4 1 0.8 0. f = cdf('bino'.6 0.num2str(n(i))]) axis([-4.'r'). stairs(x.01:4.9: Vericare graca a teoremei limita centrala (varianta cu functiile de repartitie) . 1) % functia de repartitie pentru B(n.05 1.4 0.4 0.2 0 −4 −2 n = 10000 0 2 4 Figure 3.2 0 −4 −2 n = 50 0 2 4 n = 200 1 0.6 0. n(i). 1).'b').2 0 −4 −2 0 2 4 1 0.2.6 0.05 -0.4 0.8 0. y = n(i)*p + x*sqrt(n(i)*p*(1-p)).f. plot(x. p) n = 20 1 0.

80 3.1 {1.10 . . Generati in Matlab un set de 6 numere aleatoare alese (uniform discret) din multimea Exerciµiu 3.11 Exercitii propuse Exerciµiu 3. . .5 Exerciµiu 3. .9 Exerciµiu 3.2 Exerciµiu 3. 2.7 Exerciµiu 3.6 Exerciµiu 3. 49}.4 Exerciµiu 3.3 Exerciµiu 3.8 Exerciµiu 3.

1 Masuri descriptive ale datelor negrupate Consideram un set de date statistice negrupate (de volum n). . i=1 ca ind media (empirica) de selectie. . . . Dupa cum am vazut mai inainte. denim: n x= ¯ 1 n xi . 4. X . xn (xi ∈ R. . . In continuare. vom deni cele mai importante masuri descriptive pentru aceste date. . i = 1. 2 . . n). Daca {x1 . . . in urma carora culegem un set de date statistice. (1) Valoarea medie empirica Aceasta este o masura a tendintei centrale a datelor. Pentru o selectie {x1 . Asupra acestei caracteristici. x2 . ce are functia de repartitie F .Chapter 4 Elemente de Statistic  descriptiv  Sa consideram o populatie statistica de volum N si o caracteristica a ei. ce corespund celor n observatii asupra variabilei X . . xn }. datele statistice pot  negrupate (asa cum au fost culese in urma observarilor) si grupate (descrise prin tabele de frecvente). x2 . . xN } sunt toate cele N observatii (recens mânt) 81 . . x1 . x2 . facem n observatii. . .

deoarece n (xi − x) = 0. si vom putea folosi x ca un estimator pentru µ. Pentru o selectie {x1 . . . Aceasta nu poate  denita ca o masura a gradului de imprastiere a datelor. ci doar o selectie a ei. s2 si s2 . . denim dispersia (empirica) de selectie: s2 ∗ 1 = n−1 n (xi − x) ¯ i=1 2 1 = [ n−1 n x2 − n(¯)2 ] . Ambele ∗ valori. i=1 (2) Dispersia empirica Aceasta este o masura a imprastierii datelor in jurul valorii medii. ¯ i=1 Vom vedea mai tarziu ca alegerea lui s2 in dauna lui s2 este mai potrivita intr-un anume sens. x2 . Pentru o selectie {x1 . x i i=1 Pentru intreaga populatie de volum N . xn }. . . . pentru a estima media µ a intregii populatii statistice. ∗ (3) Deviatia standard empirica Este tot o masura a imprastierii datelor in jurul valorii medii. denim deviatia standard (empirica) de selectie: s∗ = 1 n−1 n (xi − x)2 .1 Cantitatea s = n 2 n (xi − x)2 este tot o masura a dispersiei (empirice) de selectie. pot  folosite ca estimatori ai dispersiei populatiei. nu este necesar sa avem toate valorile {x1 . . dispersia populatiei este denita prin masura 1 σ = N 2 N (xi − µ)2 . ¯ i=1 . ¯ Pentru ecare i. atunci marimea µ= se numeste 1 N N xi i=1 media (empirica a) populatiei. x2 . xn }. .82 asupra caracteristicii populatiei. Vom vedea mai tarziu ca. i=1 1 Observaµia 4. . xN }. . . . cantitatea di = xi − x se numeste deviatia fata de medie. σ 2 . x2 .

yn ). Media ta este 8. σ 0. . x. cate deviatii standard. s.2 Testam media notelor obtinute de studentii din ultimul an al unei universitati. 83 deviatia standard a populatiei este denita prin masura σ= 1 N N (xi − µ)2 . dedesubtul sau deasupra mediei de selectie te situezi?)  Calculam scorul Z .7. le are sub sau deasupra mediei.45. i=1 . x2 .50 − 7.8 deviatii standard deasupra mediei de selectie. denim covarianta empirica de se- lectie: 1 covsel = n−1 n (xi − x)(yi − y ). Avem: z= x−x 8. raportat la mediile colegilor tai? (i. . i=1 (4) Scorul Z Este numarul deviatiilor standard pe care o anumita observatie. (x2 . Sa presupunem ca pentru aceste note avem media de selectie x = 7.. y1 ). s∗ z= x−µ . σ Exerciµiu 4. . (x1 .e.Elemente de Statistic  descriptiv  Pentru intreaga populatie de volum N . y2 ). Care iti este pozitia mediei tale. . . scorul Z este denit astfel: z= Pentru o populatie.24 si deviatia standard s = 0. (xn . . ¯ ¯ i=1 Covarianta empirica pentru intreaga populatie este: covpop = 1 N N (xi − µx )(yi − µy ). xn }. .24 = = 1. Pentru o selectie {x1 .7 √ (5) Covarianta empirica Daca avem n perechi de observatii. scorul Z este: x−x ¯ .

atunci (4. atunci γ1 = 0. coecient de corelatie pentru populatie. µ3 . (9) Cuantila de ordin α Deniµia 4. (en. in vecinatatea modului. ce masoara locatia unei anumite observatii fata de restul datelor.3 Se numeste cuantila de ordin α valoarea xα astfel incat: (4.1) F (xα ) = P (X ≤ xα ) = α. skewness).4 Cuantilele sunt masuri de pozitie.1. Pentru K < 0. Daca γ1 > 0. atunci asimetrie la dreapta. Termenul (−3) apare pentru ca indicele kurtosis al distributiei normale sa e egal cu 0. In cazul in care X este o variabila aleatoare discreta. γ1 < 0. Insa. γ1 = Daca avem o repartitie simetrica..84 (6) Coecientul de corelatie empiric r= r= covsel .. este al treilea moment standardizat. covpop . σx σy (7) Coecientul de asimetrie. σ3 (8) Excesul (coecientul de aplatizare sau boltire) (en. σ4 Este o masura a boltirii distributiei (al patrulea moment standardizat). Un indice K > 0 semnica faptul ca. avem asimetrie la stanga. K= µ4 − 3. Asa cum se poate observa din Figura 4. kurtosis). Observaµia 4.1) nu poate  asigurata pentru orice α. valoarea xα este acel numar real pentru care aria hasurata este chiar α. in acea vecinatate curba densitatii de repartitie este mai plata decat curba lui Gauss. sx sy coecient de corelatie de selectie. curba densitatii de repartitie are o boltire (ascutire) mai mare decat clopotul lui Gauss. daca exista o solutie a acestei ecuatiei F (x) = α. atunci exisita o innitate de solutii: intervalul .

k = 1.75 − x0. x0.) .25 . percentile (α = k/100. l = 1. • mediana: Presupunem ca observatiile sunt ordonate. 4). daca n = par. decile (α = j/10. 10).25 . • cuartila superioara este x0.Elemente de Statistic  descriptiv  ce separa doua valori posibile. x1 < x2 < · · · < xn . la aruncarea unui zar toate cele sase fete au aceeasi probabilitate de aparitie.75 .5 =   x  (n+1)/2 .75 ) = 3/4. i = 1. deci toate sunt module. Cazuri particulare de cuantile: mediana (α = 1/2). 85 Figure 4. (10) Modul (valoarea cea mai probabila a caracteristicii) Este acea valoare x∗ pentru care f (x∗ ) este maxim. astfel incat P (X ≤ x0. daca n = impar. promile (α = l/1000. • distanta intercuartilica. 1000). denim valoarea mediana: x0.   (xn/2 + xn/2+1 )/2.. 100). Pentru aceasta ordine. • cuartila inferioara este x0. astfel incat P (X ≤ x0.g. cuartile (α = i/4.5 ) = 1/4. O repartitie poate avea mai multe module (e. i = 1.1: Cuantila de ordin α.

xi ≤ x} ∗ = = Fn (x).cu i=1 fi = n. . . . Fn (x). xn }.5 Fie Ω o colectivitate statistica si X o caracteristica studiata.3.2) Propozitia de mai jos arata ca functia de repartitie empirica aproximeaza functia de repartitie teoretica (vezi Figura 4. i=1 media de selectie. construim functia de ∗ repartitie empirica. {f1 . Datele grupate sunt in genul celor prezentate in Figurile 1. Pentru o selectie de valori ale lui X . . . denim: n xf = ¯ 1 n xi fi . . Notez cu F (x) functia de repartitie a lui X . . denita prin ∗ Fn (x) = card{i. Propoziµia 4. fn }. {x1 . xi ≤ x} n . concluzia propozitiei este o consecinta imediata a Teoremei lui Bernoulli 2. xn }. . . .2 Masuri descriptive ale datelor grupate Consideram un set de date statistice grupate (de volum n). ∗ functia Fn : R −→ R. . 4.86 (11) Functia de repartitie empirica Se numeste functie de repartitie empirica asociata unei variabile aleatoare X si unei selectii {x1 .48. . x2 . prob ∀x ∈ R. x2 . x2 . . cand n → ∞. (4.1 si 1. Atunci: ∗ Fn (x) −→ F (x).2). . Se fac n repetitii ale acestui eveniment si frecventa relativa a realizarii evenimentului A este νn card{i. Pentru o selectie cu valorile de mijloc {x1 . . (media ponderata) . n f2 . Demonstraµie. xn } si frecventele absolute corespunzatoare. n n Astfel. Notez cu A evenimentul {X ≤ x} si cu p = P (A). . ce corespund celor n observatii asupra variabilei X .

Spunem astfel ca am facut o selectie de volum n din multimea painilor produse in acea zi. Calculam media masei acestora si obtinem: 1 x= n n xi .6 Sa consideram urmatoarea problema. functiile specice pentru aceste masuri sunt: Observaµia 4.2: Functia de repartitie empirica si functia de repartitie teoretica pentru distributia normala. . . x2 . xn } (in grame). Pentru a testa daca masina respectiva indeplineste norma de gramaj. masina este setata la parametrii potriviti. dispersia empirica. . i=1 Intuitiv. In MATLAB. La brutaria din colt a fost adusa o masina noua de fabricat paine. ∗ deviatia standard empirica. in scopul de a le cantari. obtinem datele (empirice): {x1 . am pus deoparte (la intamplare) n paini produse intr-o zi lucratoare. Dorim sa decidem daca. s2 ∗ 1 = n−1 n i=1 1 fi (xi − xf ) = ¯ n−1 2 n x2 fi − n x2 ¯f i i=1 .Elemente de Statistic  descriptiv  87 Figure 4. ar  de asteptat ca acest x sa aproximeze (intr-un anumit sens) masa medie (teoretica) a painilor produse de aceasta masina. Aceasta masina de paine ar trebui sa fabrice paini care sa aiba in medie m = 400 de grame. Pentru a putea obtine aceasta aproximare. In urma cantaririi celor n paini. . s∗ = s2 . intr-adevar. am avea nevoie de .

25 . valoarea mediana a lui x. Pentru a construi un astfel de criteriu. skewness pentru elementele lui x. coecientul de corelatie pentru valorile lui x si y . media armonica a elementelor lui x. range-ul lui x.y) corrcoef(x. kurtosis pentru elementele lui x.88 mean(x) harmmean(x) quantile(x. modul lui x. in decurs de un an (52 de saptamani). Table 4. adica. Acest cadru il vom construi mai jos. avem nevoie de un cadru teoretic mai abstract pentru modelarea datelor statistice. am dori sa m convinsi ca aceasta aproximare nu depinde de esantionul de paini ales. Acestea sunt. covarianta dintre x si y . aseaza media si dispersia pentru LEGE(<param>).alpha) iqr(x) median(x) std(x).3 Exercitii rezolvate Exerciµiu 4. min(x) skewness(x) kurtosis(x) prctile(x. reprezinta grac functia de repartitie empirica a lui x. 4. x0. daca am  ales alte paini si facut media maselor lor.7 O companie de asigurari a inregistrat numarul de accidente pe luna ce au avut loc intr-un anumit sat. maximum si minimum pentru elementele lui x. distanta intercuantilica.1: Functii Matlab specice pentru masuri descriptive. un criteriu care sa ne spuna ca x ≈ m.75 − x0. am  obtinut din nou o valoarea foarte apropiata de m. in ordine: . pth percentilele lui x. Mai mult.p) cdfplot(x) cov(x.y) LEGEstat(<param>) media valorilor elementelor lui x. cuantila de ordin α. var(x) range(x) mode(x) max(x). deviatia standard si dispersia valorilor lui x.

0. 0. (a) Sa se scrie un tabel de frecvente care sa contina numarul de accidente. 0.[7. 3. 2. 0. 2. 1.  Y = [zeros(7. 0. 3. 3. 4.2). 3. Me = median(Y).1). 4. 4. 2.3*ones(12. 3. 3.1). (d) Gasiti si reprezentati grac (cdfplot) functia de repartitie empirica a numarului de accidente. frecventele absolute si cele relative. m = mean(Y).1)]. 1.9.Elemente de Statistic  descriptiv  89 1. 3.3: Reprezentare pentru numarul de accidente. mediana si deviatia standard empirica.2. s = std(Y). 2. 2.10]) subplot(1. (b) Gasiti media empirica.14. 1. 4. 0. 3. 3. 1. 2. 4. 1. 2.1).2*ones(14.2. 4.1). 4. 4. 2.ones(9. 0. 1. 4. 2. 2. 1.12. 3. 2. (c) Reprezentati prin bare rezultatele din tabelul de frecvente. 2. 4. bar(0:4.4*ones(10. 3. . 2. 2. 3. subplot(1.1). 1. cdfplot(Y) √ Figure 4.

4 Exercitii propuse Exerciµiu 4.1 Exerciµiu 4.9 Exerciµiu 4.90 4.3 Exerciµiu 4.2 Exerciµiu 4.7 Exerciµiu 4.10 .6 Exerciµiu 4.4 Exerciµiu 4.5 Exerciµiu 4.8 Exerciµiu 4.

Daca populatia este nita. Deniµia 5. atunci numarul n al unitatilor statistice ce o compun (i. Elementele colectivitatii le vom numi (sau unitati statistice).1 Introducere Deniµia 5. prin inferenta. O selectie se numeste Selectiile pot  repetate sau repetata (sau bernoulliana) daca dupa examinarea individului acesta selectie nerepetata. X . pe care le vom studia si vom gasi apoi. volumul selectiei (sondajului). volumul colec- se reintroduce in colectivitate. este necesar de un numar reprezentativ de selectii repetate din colectivitatea Ω. In practica.1 indivizi Numim colectivitate statistica (sau populatie) o multime nevida Ω de elemente care este cercetata din punct de vedere a uneia sau mai multor caracteristici. Vom nota cu ω o unitate statistica. Numarul elementelor selectiei poarta numele de nerepetate. Studiem populatia Ω din punctul de vedere al unei caracteristici a sale. in caz contrar avem o 91 . Aceasta caracteristica este o anumita proprietate urmarita la indivizii ei in procesul prelucrarii statistice si o vom asimila cu o variabila aleatoare denita pe Ω.e.2 Vom numi selectie (sau sondaj) o subcolectivitate a colectivitatii cercetate Ω. o lege care sa reprezinte variabila X . Pentru a gasi aceasta lege (repartitie). card(Ω)) il vom numi (sau volumul colectivitatii volumul populatiei)..Chapter 5 Noµiuni de teoria selecµiei 5. Consideram o populatie (colectivitate statistica) Ω. Problema esentiala a statisticii matematice este de a stabilii legea de probabilitate pe care o urmeaza caracteristica X .

n sunt independente) si sunt identic repartizate. i = 1. Fie variabilele aleatoare Astfel. i = 1. Y (ω (n) ) = (X1 (ω (n) ). x2 . F). variabile aleatoare de selectie repetata de volum n. . Vom numi vector de selectie repetata de volum n. . n). . este echivalent cu a considera o singura selectie dintr-o populatie de genul "Ω multiplicat de n ori". sunt independente stochastic (deoarece {X(ωi )}i=1. Selectiile pe care le vom considera in continuare sunt numai selectii repetate din colectivitatea statistica. . Euristic. F). Vom numi Xi . Construim astfel: Ω(n) = Ω × Ω × · · · × Ω. 2. cu functia de repartitie comuna FX (se verica usor ca FXi = FX . pentru ω (n) xat. componentele vectorului Y (ω (n) ) se numesc valori de selectie repetata de volum n. n. cuplul (Ω(n) . F (n) = F × F × · · · × F. . ∀i = 1. si-l vom numi spatiul valorilor de selectie repetata de volum n. Un element al lui Ω(n) va  ω (n) = (ω1 . Elementele lui Ln le vom nota prin (xi = Xi (ω (n) ). F (n) ) se va numi spatiul selectiilor repetate de volum n. ∀i = 1. X2 (ω (n) ). x = (x1 . . Acestea sunt variabile aleatoare denite pe (Ω(n) . n). . . Dorim acum sa introducem un cadru matematic abstract pentru aceste selectii repetate. Consideram spatiul masurabil (Ω. . . Xi (ω (n) ) = X(ωi ). numita selectie repetata de volum n. xn ). selectia nerepetata poate  considerata ca ind selectie repetata.92 tivitatii Ω este mult mai mare decat volumul selectiei. ideea este urmatoarea: a efectua n sondaje repetate dintr-o multime Ω. n. Caracteristica X urmarita poate  reprezentata de o variabila aleatoare denita pe (Ω. . . Dorim sa denim matematic o selectie repetata de volum n. Vom nota cu Ln = Y (Ω(n) ) ⊂ Rn . ωn ). . Xn (ω (n) )). F (n) ). vectorul Y . . . In aceste cazuri. Pentru un ω (n) xat. ω2 . Xi : Ω(n) → R. astfel incat: Y : Ω(n) → R. . unde F este un corp borelian de parti ale lui Ω. . produs cartezian de n ori.

Xn ). S(X1 . Repartitia exacta este cea ce poate  determinata pentru orice volum al selectiei. n). De cele mai multe ori.e. . . Acestea pot  cunoscute sau necunosctute a priori si le vom numi functii teoretice (respectiv. cat si a repartitiei asimptotice a lui Sn (X). Sn (x) = g(x1 . statistica se noteaza cu una dintre urmatoarele: Sn (X). . Repartitia asimptotica este repartitia limita a Sn (X) cand n → ∞. n ≤ 30. . . • in obtinerea intervalelor de incredere pentru un parametru necunoscut. ∀B ∈ B(R).4 Asadar. g −1 (B) ∈ B(Rn )). unde g este o functie g : Rn → R masurabila (i. X2 .3 statistica (sau functie de selectie) variabila aleatoare Sn (X) = g(X1 .Teoria selecµiei 93 Vom numi Deniµia 5. . x2 . S(X. . Valoarea numerica S(X. Este indispensabila in conditiile in care volumul selectiei este redus. o statistica este o functie de variabilele aleatoare de selectie.2 Exemple de statistici Fie (Ω. 5. n. o functie de selectie (statistica) este utilizata in urmatoarele cazuri: • in probleme de estimare punctuala a parametrilor. densitate de repartitie teoretica si functie . iar utilizarea acesteia conduce la rezultate bune doar pentru n > 30. Sa notam cu f (x) si F (x) densitatea de repartitie.. Prin intermeniul statisticilor putem trage concluzii despre populatia Ω. Notatii: In literatura. respectiv. • ca o statistica test pentru vericarea ipotezelor statistice. X2 . Teoria probabilitatilor ne ofera procedee de determinare atat a repartitiei exacte a lui Sn (X). din care a provenit esantionul ω (n) . . xn ) se numeste valoarea functiei de selectie pentru un ω (n) xat. F) o colectivitate statistica si X o caracteristica cercetata a sa. . functia de repartitie pentru X . Xn ). . ω (n) ). Observaµia 5. . .

7 (1) In capitolele urmatoare vom scrie relatia (5.4) sub forma restransa: 1 X= n n Xi . . Daca se cunoaste f (x). si le vom numi medie teoretica si dispersie teoretica. Sa consideram ω (n) o selectie repetata de volum n din colectivitatea data si Xi . i=1 Observaµia 5. Propriet µi 5. i = 1.22 precizeaza care este repartitia mediei de selectie pentru variabile aleatoare de selectie dintr-o colectivitate normala. . Xn }. atunci putem determina µ = E(X) si σ 2 = D 2 (X).1) Pentru un ω (n) xat. adica prin extragerea unor selectii de date din colectivitate. sa notam cu {x1 . xn } valorile de selectie corespunzatoare variabilelor aleatoare de selectie {X1 .s. care se va subintelege. variabilele aleatoare de selectie. calculand caracteristicile respective pentru selectiile considerate si apoi extrapoland (in anumite conditii si dupa anumite criterii) la intreaga colectivitate. 1 n n a. n (5. i=1 ω (n) ∈ Ω(n) . a priori In cazul in care una sau mai multe caracteristici teoretice corespunzatoare lui X nu ne sunt cunoscute. Atunci valoarea mediei de selectie pentru un ω (n) xat este: x= 1 n n xi i=1 (media de selectie empirica).94 de repartitie teoretica). i=1 (5. putem construi diverse functii de selectie. cand n → ∞. x2 . Cu ajutorul acestora. Media de selectie (mean) Deniµia 5. de acum inainte vom face abstractie de dependenta de ω (n) in formule. . (5. D2 (X) = D2 (X) . (2) Propozitia 5.5 Numim medie de selectie (repetata de volum n). X2 . .3) Xi −→ E(X). . . statistica X(ω (n) 1 )= n n Xi (ω (n) ).4) Pentru simplitatea formulelor. iar Propozitia 5.6 E(X) = E(X). . vom cauta sa le determina prin inferenta.2) (5.24 precizeaza care este repartitia asimptotica a mediei de selectie pentru variabile de selectie intr-o colectivitate oarecare. daca acestea exista. . n. .

10 Numim moment de selectie centrat de ordin k. .s. . . Xn ) = n n Xik . Xn ) = 1 n n [Xi − X]k . avem: α1 (X1 . (momente centrate teoretice pentru X) (Xi − X)k i=1 −→ µk (X). statistica 1 αk (X1 . Xn )) 1 n n = a. i=1 Momente de selectie centrate Deniµia 5. (k ∈ N∗ ). Xn )) 1 n n = = a. . . . . . cand n → ∞. statistica µk (X1 .11 Pentru oricare k xat. . k ∈ N∗ . X2 . . . . . x2 . cand n → ∞. xn ) = n n [xi − x]k i=1 (moment de selectie centrat empiric de ordin k).8 Numim moment de selectie (repetata de volum n) de ordin k. . avem: E(µk (X1 . i=1 Valoarea momentului de selectie de ordin k pentru un ω (n) xat este: 1 µk (x1 .Teoria selecµiei 95 Momente de selectie Deniµia 5. D2 (X k ) . x2 . k ∈ N∗ . . avem: E(αk (X1 . . . . . . . E([X − µ]k ) = µk (X). n (momente initiale teoretice pentru X) Xik −→ αk (X). . . . . . Xn ) = X. . X2 . Propriet µi 5. i=1 Valoarea momentului de selectie de ordin k pentru un ω (n) xat este: αk (x1 . . . xn ) = 1 n n xk i i=1 (moment de selectie empiric de ordin k). In cazul particular k = 1. X2 .s. . . Propriet µi 5. . E(X k ) = αk (X).9 Pentru oricare k xat. X2 . X2 . Xn )) D2 (αk (X1 . X2 . .

Xn ) = µ2 (X1 . . denita prin: ∗ d2 (X) ∗ Aceasta se mai numeste si 1 = n−1 n [Xi − X]2 . cand n → ∞.12 Numim dispersie de selectie (repetata de volum n). Motivatia pentru considerarea statisticii d2 (X) este data de proprietatile din Propozitia urmatoare: ∗ Propriet µi 5. iar valoarea ei pentru un ω (n) n xat este: d2 (x) ∗ 1 = n−1 [xi − x]2 i=1 (dispersie de selectie empirica). (ii) Daca media teoretica a colectivitatii este cunoscuta selectie d2 (X) devine: n a priori.96 Dispersie de selectie (var) Deniµia 5. De cele mai multe ori. pe cand d2 (X) este estimator ∗ deplasat. in locul lui d2 (X) se utilizeaza statistica d2 (X). o vom nota cu d2 (X). statistica d2 (X1 . .5) (5. i=1 dispersie de selectie modicata. atunci dispersia de 1 d (X) = n 2 [Xi − µ]2 . X2 . iar valoarea acesteia pentru un ω (n) xat este: 1 d (x) = n 2 n [xi − x]2 i=1 (dispersie de selectie empirica). . X2 . Xn ).14 (i) Dupa cum vom vedea in capitolul urmator. ∗ Observaµia 5. primele doua relatii arata ca sta- tistica d2 (X) este un estimator nedeplasat pentru dispersia teoretica. . . . . i=1 Propozitia 5. E(X) = µ ∈ R.13 Dispersiile de selectie verica urmatoarele relatii: E(d2 (X)) = n−1 2 D (X). Pentru simplitate.28 precizeaza care este repartitia acestei statistici. .6) d2 (X) −→ D2 (X). n prob E(d2 (X)) = D2 (X) ∗ (5. .

unde n(x) = card {i.e. Fn (x) ia valorile: ∗ Fn (x) = card {i. . (i. ∗ Fn (x. ω (n) ) = n(x) ..17 Functia de repartitie de selectie satisface convergenta ∗ Fn (x) − − F (x). x] (Xi ).2).s. Propriet µi 5. F (x)). Propriet µi 5. unde χA este functia indicatoare a multimii A. Fn (ω (n) ) este o variabila aleatoare distribuita binomial B(n. −→ n→∞ a. exista o serie de criterii care permit sa se aprecieze apropierea lui Fn (x) de F (x). . Numim func- tie de repartitie de selectie (repetata de volum n). este functia de repartitie empirica denita in 4. . i=1 ∀ x ∈ R.16 Functia de repartitie de selectie satisface urmatoarele relatii: ∗ E(Fn (x)) = F (x). n ∗ In Statistica.Teoria selecµiei 97 (cdfplot) Functia de repartitie de selectie Deniµia 5. 1 [F (x)(1 − F (x))]. amintim doar cateva dintre ele. functia ∗ Fn : R × Ω(n) → R. . X2 . Xi (ω (n) ) ≤ x} reprezinta numarul de elemente din selectie mai mici sau egale cu x. ∗ Pentru ecare ω (n) ∈ Ω(n) xat. Mai jos. n ∀ (x.  Rezultatul este o consecinta directa a legii tari a numerelor mari. xi ≤ x} n . Xn variabile aleatoare de selectie repetata de volum n. ∗ Pentru un x ∈ R xat. ∗ D2 (Fn (x)) = ∀x ∈ R. ∀x ∈ R. x xat in R. √ . Relatia din denitie poate  scrisa si sub forma: ∗ Fn (x) 1 = n n χ(−∞. ω (n) ) ∈ R × Ω(n) .15 Fie X1 .

F (x)(1 − F (x)) ). atunci lucram doar populatii normale. . 5. In cele mai multe cazuri practice. Propoziµia 5.7) Observaµia 5.21 Functia K denita prin (5. care are functia de repartitie teo- ∗ retica F si e functia de repartitie de selectie Fn . X2 .22 (repartitia mediei de selectie pentru o selectie gaussiana) Daca Xi ∼ N (µ. x > 0. De regula. σ).7) se numeste functia lui Kolmogorov si are valorile tabelate. iar pentru n > 30 putem considera orice tip de repartitie pntru colectivitate. Teorema 5. . √  Rezultatul este o consecinta directa a Propozitiei 5.19 (Glivenko-Cantelli) Fie X ∗ o caracteristica. atunci statistica X satisface: X∼N σ µ. (5. 2. daca volumul populatiei este mic (n ≤ 30). cu probabilitatea 1. √ n .98 Propriet µi 5. . F (x) functia sa de repartitie si Fn (x) func- ∗ tia de repartitie empirica corespunzatoare unei selectii de volum n.20 (Kolmogorov) Fie caracteristica X de tip continuu. Mai jos prezentam cateva rezultate mai importante referitoare la selectia dintr-o colectivitate gaussiana. Fie {X1 .18 Functia de repartitie de selectie satisface convergenta √ ∗ n(Fn (x) − F (x)) ∼ N ( 0. Daca notam cu ∗ dn = sup |Fn (x) − F (x)|. (n ∈ N∗ ) . O vom utiliza mai tarziu in Teoria deciziei (testul Kolmogorov). ce urmeaza a  studiata din punct de vedere statistic. −→ x∈R n→∞ Teorema 5. Atunci Fn (x) converge uniform la F (x). .3 Selectii aleatoare dintr-o colectivitate normala Sa consideram Ω o colectivitate statistica si X o caracteristica a sa. n}. . X urmeaza o repartitie normala (gaussiana). x∈R atunci avem: n→∞ lim P ( n · dn < x) = K(x) = √ ∞ (−1)k e−2 k k=−∞ 2 x2 . adica: ∗ sup |Fn (x) − F (x)| − − 0. . .16 si a Teoremei limita centrala. x xat in R. ∀i = {1. . Xn } variabile aleatoare de selectie repetata de volum n.

24 (repartitia mediei de selectie pentru o selectie oarecare) Daca {X1 . i ai µi . σi ) sunt variabile aleatoare independente stochastic si ai ∈ R. O consecinta directa a acestei propozitii este urmatoarea: Propoziµia 5. ∀i = {1. . √n ). i=1 i=1 . X2 .8) φaX (t) = φX (at). .23 Daca Xi ∼ N (µ. obtinem ca functia caracteristica a lui X este: n φX (t) = k=1 ei µ n − t σ 2 t2 2 n2 = e iµt− 1 2 σ √ n 2 t2 . .26 Daca ξi ∼ N (µi . caracteristica este: φ(t) = ei µ t− 2 σ Din relatia (2. . n}.Teoria selecµiei 99 Vom folosi metoda functiei caracteristice. σ) functia Demonstraµie.36) si tinand cont de relatia 1 2 t2 . n} sunt variabile aleatoare de selectie. √ n Propoziµia 5. Pentru o variabila aleatoare N (µ.25 Daca n este sucient de mare. . [Ex- Observaµia 5. . . n i = {1. Xn } variabile aleatoare de selectie repetata de volum n. ercitiu!] Acest rezultat este o consecinta imediata a concluziei teoremei limita centrala. (n > 30) Demonstraµie. Propoziµia 5. . statistica X satisface: X∼N σ µ. atunci variabila aleatoare ξ = i=1 ai ξi satisface proprietatea: n  ξ∼N n  2 a2 σi  . 2. atunci pentru un volum n sucient de mare. . 1). atunci Z= X −µ σ ∼ N (0. ce urmeaza o repartitie data. atunci concluzia Propozitiei 5. . σ). . .23 ramane valabila si in cazul in care avem o selectie repetata de volum n dintr-o colectivitate statistica nu neaparat gaussiana. (5. σ adica X urmeaza legea de repartitie N (µ. √ n . 2.

22 obtinem ca media de selectie corespunza- toare. .28 (repartitia diferentei mediilor de selectie pentru colectivitati gaussiene) Consideram o selectie de volum n1 dintr-o populatie normala N (µ1 . satisface: ξi ∼ N σi µi . . a2 = −1.29 (1) Concluzia propozitiei anterioare se mai poate scrie astfel: Z= (2) (ξ1 − ξ2 ) − (µ1 − µ2 ) 2 σ1 n1 + 2 σ2 n2 ∼ N (0. . .  2 2 σ1 σ2  + . {1. ξi . . Deoarece ξi ∼ N (µi . ce urmeaza a  studiata. 2. . Propoziµia 5. i=1 i=1  2 σi  . Atunci statistica  ξ1 − ξ2 ∼ N µ1 − µ2 . .26 variabilelor aleatoare independente {ξ1 . Observaµia 5. σi ). [Exercitiu!] i = Propoziµia 5. σi ) variabile aleatoare independente stochastic si ai ∈ R. Aplicam rezultatul Propozitiei 5. din Propozitia 5. ξ2 . . (De exemplu. n}.100 Demonstraµie. Notam cu ξ1 si. populatiile statistice sa e . obtinem concluzia dorita. ξn }. Atunci statistica Y = a1 ξ1 + a2 ξ2 + . 1). σ2 ). iar ξ este o caracteristica comuna a celor doua populatii. Demonstratia este bazata pe metoda functiei caracteristice. ξ1 si ξ2 . Aplicand acum Propozitia 5.27 Fie ξi ∼ N (µi . a2 i ni Demonstraµie. . . cele doua selectii ind alese independent una de cealalta.27 pentru cazul particular in care avem doar doua variabile aleatoare.27. n1 n2 Demonstraµie. ξ2 mediile de selectie corespunzatoare selectiilor alese. pe care o vom nota cu ξi . + an ξn satisface proprietatea:  Y ∼N n n a i µi . Ω1 si Ω2 . Urmatoarea propozitie este un caz particular al Propozitiei 5. √ ni . iar a1 = 1. Sa presupunem ca avem doua populatii statistice normale. respectiv. σ1 ) si o selectie de volum n2 dintro colectivitate N (µ2 . Pentru ecare caracteristica ξi consideram cate o selectie repetata de volum ni .

n2 . Propoziµia 5. 1). spre exemplu. X2 . y > 0. = Functia caracteristica pentru X 2 va :  1 √ √  √  2 y [f ( y) + f (− y)] . . Pentru aceasta. . (Adica. vom selecta n1 dintre piesele produse de strungul intai si n2 piese produse de cel de-al doilea strung). . Demonstraµie. y ∞ 0 φX 2 (t) = E ei t X 2 1 =√ 2π . n}. ξ2 mediile de selectie corespunzatoare. i = {1.. 1). . Avem:   0  . avem nevoie de functia caracteristica pentru X 2 . consideram cate o selectie repetata.Teoria selecµiei 101 multimea pieselor produse de doua strunguri intr-o zi de lucru. Pentru a demonstra propozitia.39) cu µ = 0.   0  . y > 0.e. Sa notam cu ξ1 . y ≤ 0. Propozitia anterioara precizeaza care este repartitia diferentei standardizate ale celor doua medii de selectie.30 Fie {X1 . de volume n1 . Atunci variabila aleatoare n H = i=1 2 2 Xk ∼ χ2 (n). Sa mai presupunem ca deviatiile standard ale caracteristicilor considerata sunt cunoscute.  1 √ √  f ( y) . unde X ∼ N (0. de unde g(y) = G (y) =   0  . deviatiile sunt date deja in cartea tehnica a celor doua strunguri) Pentru ecare dintre cele doua colectivitati. . Aceasta ne va  deosebit de utila. Xn } variabile aleatoare independente stochastic. y ≤ 0. Sa notam cu f (x) functia densitate de repartitie pentru X . astfel incat Xi ∼ N (0. respectiv. data de relatia (2. . respectiv. in vericarea ipotezei ca masele medii ale pieselor produse de cele doua strunguri coincid (vezi capitolul Teoria deciziei). Notam cu G(y) functia de repartitie pentru X 2 si cu g(y) densitatea sa de repartitie. . y − 2 e− 2 dy 1 y = (1 − 2it) −1 2 . . (i. 2. iar caracteristica comuna sa e masa lor). y ≤ 0. folosim metoda functiei caracteristice. y > 0.. 2 G(y) = P (X ≤ y) =   P (−√y ≤ X ≤ √y) .

n. i si aceasta este functia caracteristica pentru o v. i=1 Demonstraµie.23. . Xn } variabile aleatoare independente stochastic. astfel incat Xi ∼ N (µ.102 Deoarece variabilele aleatoare {Xi }i sunt independente stochastic.36) si obtinem: φH 2 (t) = E(e n it n i=1 n 2 Xi )= i=1 E eitXi n 2 = i=1 φX 2 (t) = (1 − 2it)− 2 . atunci X 2 ∼ Urmatoarea propozitie este tot o consecinta directa a Propozitiei 5. . 1). cu X ∼ χ2 (n) si X + Y ∼ χ2 (n + m). i = {1. consider variabilele aleatoare Yi = Xi − µ . Pentru ecare i = {1. . Atunci variabila aleatoare H2 = 1 σ2 n (Xi − µ)2 ∼ χ2 (n).a. . . . Demonstraµie. . n}. putem aplica relatia (2.31 χ2 (1). avem Yi ∼ N (0. Aplicam rezultatul propozitiei 5. ∀t ∈ R. Yn } si obtinem concluzia dorita. Y2 . 1).32 (repartitia dispersiei de selectie cand media colectivitatii este cunoscuta) Fie {X1 . 2. σ). . . . . Demonstratia se bazeaza pe metoda functiei caracteristice. Lema 5. daca X ∼ N (0. .30 pentru variabilele aleatoare {Y1 . . atunci Y ∼ χ2 (m). ∀i = 1. O consecinta imediata a acestei propozitii este ca. Propoziµia 5. X2 . Observaµia 5. σ Conform Propozitiei 5.33 Daca X si Y sunt variabile aleatoare independente stochastic. . χ2 (n). 2. n}. folosind faptul ca φX (t) · φY (t) = φX+Y (t).30. . . .

Teoria selecµiei 103 Fie X caracteristica unei colectivitati statistice. ∗ ∗ σ2 Propoziµia 5. . Observaµia 5. statisticile X si n−1 d2 (X) sunt independente stochastic. σ) caracteristica unei populatii statistice si e {X1 . Atunci statistica 1 χ = 2 σ 2 n (Xi − X)2 ∼ χ2 (n − 1).33. 2 σ (5. σ2 ∗ unde d2 (X) este dispersia de selectie. Facem apel acum la Lema 5. Atunci.9) este o variabila aleatoare repartizata χ2 (n). ∗ (5. X media de selectie repetata de volum n Lema 5.35 Fie X ∼ N (µ. 1 σ2 n (Xi − X)2 + i=1 n (X − µ)2 σ2 (5. .9) n Zi2 i=1 = n−1 2 2 d∗ (X) + Z . Xn } variabile aleatoare de selectie repetata de volum n.10) unde: Zi = Xi − µ ∼ N (0. 1) si Y ∼ χ2 (n).34 si d2 (X) dispersia de selectie repetata. atunci statistica T = X Y n ∼ t (n). X2 . observam ca membrul stang al egalitatii (5. i=1 Demonstraµie.35 se poate rescrie astfel: n−1 2 d (X) ∼ χ2 (n − 1). Putem scrie: 1 σ2 n (Xi − µ)2 i=1 = sau. concluzionam ca al doilea termen din membrul drept este repartizat χ2 (1). Folosind Observatia 5. . . Utilizand faptul ca X si n−1 d2 (X) sunt independente stochastic. Utilizand Propozitia 5. 1).32.36 Concluzia propozitiei 5. si ajungem ∗ σ2 la concluzia propozitiei.37 Daca X si Y sunt variabile aleatoare independente stochastic.11) Lema 5. . 1) σ si Z= X −µ σ √ n ∼ N (0. cu X ∼ N (0. gasim ca variabilele ∗ σ2 2 aleatoare Z si n−1 d2 (X) sunt independente stochastic.31.

. 2 2 πΓ n 2 Consideram o transformare a acestui vector. Densitatea de repartitie a acestui vector este (vezi Propozitia 2.104 Demonstraµie. n x2 +y (x. Din independenta. y > 0. iar d∗ (X) = . v) = n+1 √ 2 2 πΓ n 2 Densitatea de repartitie marginala pentru T este: ∞ n v t2 v .38 Daca {X1 . Y . t ∈ R. σ) a unei colectivitati statistice. y) = f (x)g(y) = n+1 √ . τ:   t = √ x  y   v = y. d∗ (X) √ n−1 d2 (X) ).40): v 2 −1 e− 2 (1+ n ) k(t. ∞). Avem: x2 1 f (x) = √ e− 2 . X2 . ce urmeaza repartitia unei caracteristici X ∼ N (µ. adica tocmai densitatea de repartitie a unei variabile aleatoare t(n). 2π   y n −1 e− y   2n n 2 2 2 Γ( 2 ) g(y) =   0 . v) ∈ R × (0. n in vectorul (T. Xn } sunt variabile aleatoare de selectie repetata de volum n. x ∈ R. n (t. ∞). gasim ca densitatea de repartitie a vectorului (X. k1 (t) = 0 k(t. Propoziµia 5. y) ∈ R × (0. . Y ). Fie f (x) si g(y) densitatile de repartitie pentru X . v) dv Γ n+1 2 √ nπ Γ n 2 t2 1+ n − n+1 2 = . y ≤ 0. respectiv. . . . ∗ (t(n − 1) este repartitia Student cu (n − 1) grade de libertate. atunci statistica t= X −µ ∼ t(n − 1). Y ) este: y 2 −1 e− 2 h(x.

X1 . σ2 ∗ Observaµia 5. . Concluzia rezulta prin aplicarea Propozitiei 5. Demonstraµie.38: Propoziµia 5.41 (repartitia diferentei mediilor de selectie cand dispersiile sunt necunoscute.30 si Lemei 5. Propoziµia 5.42 abila aleatoare Daca X ∼ χ2 (m) si Y ∼ χ2 (n) sunt variabile aleatoare independente.40 Daca variabilele aleatoare {X0 . cele doua selectii ind alese independent una de cealalta. +Xn n ∼ t (n). egale) Consideram o selectie de volum n1 dintr-o populatie normala N (µ1 . Atunci statistica ∗1 ∗2 T = (ξ1 − ξ2 ) − (µ1 − µ2 ) (n1 − 1)d2 ∗1 + (n2 − 1)d2 ∗2 n1 + n2 − 2 1 1 n1 + n2 ∼ t (n1 + n2 − 2).37. Demonstraµie. Xn } sunt independente stochastic. σ1 ) si o selectie de volum n2 dintro colectivitate N (µ2 . . Notam cu ξ1 . n). .. atunci vari- F = n X ∼ F(m. X= X −µ σ √ n ∼ N (0. Urmatoarea propozitie este un caz particular al Propozitiei 5. Propoziµia 5. 1).39 Aceasta propozitie va  folosita in teoria deciziei.. m Y . atunci variabila aleatoare T = X0 2 2 2 X1 +X2 + . ξ2 si d2 . identic repartizate N (0. d2 mediile de selectie si dispersiile de selectie corespunzatoare selectiilor alese. σ2 ).Teoria selecµiei 105 Aplicam lema anterioara pentru variabilele aleatoare Demonstraµie. 1) si Y = n−1 2 d (X) ∼ χ2 (n − 1). . in problema testarii mediei teo- retice cand dispersia teoretica este necunoscuta a priori.

. Γ Densitatea de repartitie marginala pentru F este: ∞ k1 (u) = = 0 m n k(u. v) ∈ (0. v) dv Γ m+n m m 2 u 2 −1 1 + u m n n Γ 2 Γ 2 m 2 − m+n 2 . . X2 . y > 0. . 1). + Xm+n ∼ F(m. . Xm+n } sunt variabile aleatoare independente. .30 si 5. n). u > 0.106 Demonstraµie. ∞) × (0. y) ∈ (0. identic reparti- zate N (0. Consideram o transformare a acestui vector. Demonstraµie.42. (x. y ≤ 0. Demonstratia rezulta imediat prin aplicarea rezultatelor propozitiilor 5. n). Y . . ∞). . respectiv. x ≤ 0. . Densitatea de repartitie a acestui vector este (vezi Propozitia 2. in vectorul (F.40): m n m 2 k(u. + Xm n 2 2 2 m Xm+1 + Xm+2 + . y) = f (x)g(y) = x 2 −1 y 2 −1 e− 2 m+n 2 Γ m 2 Γ n 2 . ∞). x > 0. gasim ca densitatea de repartitie a vectorului (X. . . atunci variabila aleatoare F = 2 2 2 X1 + X2 + . Y ) este: m n x+y 2 h(x. Y ). ∞) × (0. Avem:   x m −1 e− x  2  m m2 2 2 Γ( 2 ) f (x) =   0   y n −1 e− y 2  2n  2 2 Γ( n ) 2 g(y) =   0 . τ:    t = n x m y   v = y. Fie f (x) si g(y) densitatile de repartitie pentru X si.43 Daca {X1 . . adica tocmai densitatea de repartitie a unei variabile aleatoare F(m. Propoziµia 5. (t. v) = u 2 −1 v 2 m+n 2 m m+n −1 2 e− 2 (1+ n n 2 v m u) Γ m 2 . Din independenta celor doua variabile aleatoare. .

n 1 − 1 χ2 2 n2 χ2 = 1 1 2 σ1 n1 (X1 i − X1 )2 . 5. X2 .Teoria selecµiei 107 Propoziµia 5. i=1 χ2 = 2 1 n2 n2 (X2 j − µ2 )2 ∼ χ(n2 ). n2 − 1). avem ca χ2 ∼ χ(n1 − 1). σ2 ) caracteristicile a doua populatii statistice. 2 σ1 d2 2 χ2 = 1 1 n1 n1 (X1 i − µ1 )2 ∼ χ(n1 ). Ω1 si Ω2 . j=1 Demonstraµie. respectiv. i=1 χ2 = 2 1 2 σ2 (X2 j − X2 )2 . de volume n1 . n2 sunt variabile de selectie repetata de volume n1 .44.44 (repartitia raportului dispersiilor pentru colectivitati gaussiene) Fie X1 ∼ N (µ1 .43. n2 . ce urmeaza repartitia variabilelor aleatoare X1 .35. X1 si X2 sunt mediile de selectie corespunzatoare. Folosind concluzia Propozitiei 5. j=1 {X1 i }i=1. σ1 ) si X2 ∼ N (µ2 . Demonstratia este similara cu cea de mai inainte. respectiv. si consideram d2 (X1 ) ∗1 si d2 (X2 ) dispersiile de selectie corespunzatoare celor doua selectii repetate. respectiv. Rescriem F in forma echivalenta: F = unde n 2 − 1 χ2 1 . 1 χ2 ∼ χ(n2 − 1). Din ecare populatie extragem cate o selectie repetata.43. Atunci statistica ∗2 F = 2 σ2 d2 ∗1 ∼ F(n1 − 1. Se folosesc rezultatele Propozitiilor [Exercitiu!] .45 (repartitia raportului dispersiilor pentru colectivitati gaussiene) Suntem in conditiile Propozitiei 5.32 si 5. Propoziµia 5. 2 Concluzia acestei propozitii urmeaza in urma aplicarii rezultatului Propozitiei 5. n2 . n2 ). n1 si {X2 i }i=1. 2 d2 σ1 ∗2 Demonstraµie. cu mentiunea ca mediile teoretice µ1 si µ2 sunt cunoscute a priori. Atunci F1 = unde d2 si d2 sunt date de: 1 2 2 σ2 d2 1 ∼ F(n1 .

n) (5.50) genereaza o matrice patratica. va trebui ca m = n in (5.4 Selecµii în Utilizand functiile Matlab legernd(< param >. 6). In total. putem genera variabile aleatoare de selectie de un volum dat. am generat astfel 50 de variabile aleatoare de selectie de volum 50. < param >. Putem privi aceasta matrice aleatoare astfel: ecare coloana a sa corespunde unei variabile aleatoare de selectie de volum 50. 50. m. careia ii precizam cele 50 de valori ale sale obtinute la o observatie. . de dimensiune 50.6.12) si (5.13). n). ce urmeaza repartitia N (100.13) introduse în Capitolul 1. m. avem 50 de coloane.108 5. n. Pentru aceasta. comanda random('norm'. corespunzand celor 50 de variabile aleatoare de selectie. Asadar.12) si random( lege . (5.100. Astfel.

0.  Din teorie. X . acestea pot  calculate astfel: % n = volumul selectiei % am generat selectia de volum n mu = 100. • Calculati masa medie si deviatia standard ale mediei de selectie.46 Sa consideram ca masa medie a unor batoane de ciocolata produse de o masina este o caracteristica X ∼ N (100.n).22).2091%. Calculati procentul de rebuturi avute. procentul de rebuturi este r = P2 · 100% ≈ 0. .65.5 Exerciµii rezolvate Exerciµiu 5. stim ca media de selectie X urmeaza repartitia N (100. µX = 100.02.65/ 1000) (vezi Propozitia √ 5. adica aproximativ 2 rebuturi la 1000 de batoane. • Calculati P (98 < X < 102). √ In Matlab. de unde. sigma. X = normrnd(mu.Teoria selecµiei 109 5. dintre sutele de mii de batoane produse in acea zi s-au ales la intamplare 1000 dintre acestea. 0. n. sigma = 0. n=1000. Probabilitatea de a avea un rebut este: P2 = P {X < 98} {X > 102} = P (X < 98) + P (X > 102) = FX (98) + 1 − FX (102).65). Asadar. • Un baton este declarata rebut daca masa sa medie este sub 98 de grame sau peste 102 de grame. σX ≈ 0. In vederea vericarii parametrilor masinii. Probabilitatea P1 = P (98 < X < 102) este P1 = P (X < 102) − P (X ≥ 98) = FX (102) − FX (98) ≈ 1.

mu. de 90000 pe saptamana.sigma) + 1 . S = sigma/sqrt(n). Cate tranzactii s-au facut (in medie) in acel an?  P = P (X < 95000) = F (95000). unde P este probabilitatea ca painile sa nu e in conformitate cu standardul CTC este: P = P ({X < 380} {X > 420}) = P (X ≤ 380) + 1 − P (X ≤ 420) = FX (380) + 1 − FX (420). Pentru a controla daca masina respecta standardele cantitative. de tranzactii √ Exerciµiu 5. 10). % Xbar = media de selectie % media si deviatia standard P1 = normcdf(102. Matlab scriem astfel: P = normcdf(9. rebut = P2*100. s = std(Xbar). (x si s) (b) Painile care au masa sub 380g sau peste 420g nu sunt conforme cu standardul CTC. S).mu. Notam cu X media de selectie pentru numarul tranzactiilor bursiere pe intregul an urmarit. (a) Folosind Matlab. s-au cantarit la intamplare 50 dintre franzelele produse de respectiva masina intr-o zi.47 Numarul tranzactiilor la bursa din New York este. sa se genereze o astfel de selectie aleatoare si sa se determine media de selectie empirica si deviatia standard empirica pentru aceasta selectie.9e4.  (b) Numarul de rebuturi este r = P · 100. in medie. Sa se gaseasca proportia de paini care nu respecta standardul masei. m = mean(Xbar).mu.110 Xbar = mean(X). S) . P2 = normcdf(98.sigma). Sa presupunem ca urmarim numarul tranzactiilor bursiere intr-un an intreg (52 de saptamani).normdf(98. mu. iar X∼N In 7000 95000. Exerciµiu 5.normcdf(102.5e4. . cu deviatia standard 7000. unde FX este functia de repartitie pentru X . Calculati care este probabilitatea evenimentului {X < 95000}. √ 52 .48 Masa (in grame) a unui anumit tip de franzele produse de o masina intr-o brutarie este o variabila aleatoare N (400.7e3/sqrt(52)) N = 52*90000 = 4 680 000 % probabilitatea % nr.

Pentru a calcula probabilitatea ceruta. m = mean(X). 1/(30*sqrt(2))) = 0.49 In vederea studierii unei caracteristici X ce are densitatea de repartitie f (x) =    2 x. Ea este: P (X < 0. adica este masurabila.   0 ∈(0.10)+1-normcdf(420.1).400. s = std(X). x ∈ (0. Putem acum calcula probabilitatea ceruta. 9 18 D2 (X) = E(X 2 ) − (E(X))2 = R x2 f (x) dx − Asadar.  Se observa cu usurinta ca f (x) indeplineste conditiile unei functii de repartitie. repartitia mediei de selectie X este X∼N 2 1 √ .10. nenegativa si 1 f (x) dx = R 0 2 x dx = 1. Se cere sa sa determine probabilitatea P (X) < 0.65.Teoria selecµiei 111 X = normrnd(400. s-a efectuat o selectie repetata de volum n = 100. 3 1 4 = .2398.65) = FX (0. avem nevoie de E(X) si D 2 (X). unde X este media de selectie.10))*100 %%% = 4. 1). 50.65. √ .65) = normcdf(0. 1). 2/3.5% √ Exerciµiu 5. % selectia intamplatoare r = (normcdf(380. √ 3 18 · 100 .400. Avem: 1 E(X) = R x f (x) dx = 0 2 2 x2 dx = .

5 Exerciµiu 5.6 Exercitii propuse Exerciµiu 5.3 Exerciµiu 5.8 Exerciµiu 5.9 .4 Exerciµiu 5.7 Exerciµiu 5.6 Exerciµiu 5.112 5.2 Exerciµiu 5.1 Exerciµiu 5.

f este functia de probabilitate daca variabila aleatoare X este de tip discret. x2 . In mod evident. unde θ este un parametru necunoscut. Daca functia de probabilitate (densitatea de repartitie) este deja cunoscuta. 113 . σ). Vom spune astfel estimare parametrica. θ). 1). . ai carui componente sunt parametrii repartitiei lui X . ne vom ocupa de estimarea parametrilor Sa presupunem ca avem caracteristica X care urmeaza repartitia obtinuta din functia de probabilitate (sau densitate de repartitie) f (x. . caz in care se poate pune problema de a  estimata. • specicata. Mai sus. se pune problema sa estimam valoarea parametrilor de care aceasta depinde. De exemplu. • necunoscuta. X ∼ P(λ) sau X ∼ N (µ. . In general. in primul caz de mai sus nu avem nimic de estimat.1 Punerea problemei Sa presupunem ca ni se da un set de observatii aleatoare {x1 . acest paramtru poate  un vector (θ ∈ Θ ⊂ Rp ). xn } asupra unei caracteristici X a unei populatii statistice. Functia de probabilitate (respectiv densitatea de repartitie) a caracteristicii poate  • complet specicata. daca este o variabila aleatoare de tip continuu.Chapter 6 Noµiuni de teoria estimaµiei 6. X ∼ U(0. . iar f este densitatea de repartitie a lui X . de exemplu. In acest capitol. dar cel putin unul dintre parametrii sai este necunoscut a priori. ca avem o problema de unei repartitii date. dar cu parametru(i) necunoscut(i).

. σ 2 ) = − σ2 ..1 (1) Se numeste functie de estimatie (punctuala) sau estimator al lui θ . folosind datele de selectie si bazandu-ne pe rezultatele teoretice prezentate in capitolele anterioare. b(θ. iar deplasarea (distorsiunea) se deneste astfel: ˆ ˆ b(θ. Asadar. In acest caz. . . atunci θ(x1 . iar dispersia de selectie d2 (X) = 1 n n [Xi − X]2 i=1 este un estimator deplasat pentru D 2 (X). daca ˆ Altfel. . X2 . deplasarea ind b(s2 . . . . Fie {X1 . θ) este o masura a erorii pe care o facem in estimarea lui θ prin θ . Deniµia 6. . o estimatie pentru un parametru necunoscut este valoarea estimatorului pentru selectia . θ) = E(θ) − θ. Presupunem totodata ca X admite medie si notam cu µ = E(X) si σ 2 = D 2 (X). . ˆ (2) O statistica θ este un estimator nedeplasat (en. biased estimator) pentru θ ˆ E(θ) = θ. . ne-am dori sa stim in ce sens si cat de bine este aceasta aproximatie. . x2 . X2 . x2 . . Xn } variabile aleatoare de selectie repetata de volum n. .114 Scopul teoria estimatiei este de a evalua parametrii de care depinde f . ˆ ˆ Astfel. xn } sunt date observate. o functie de selectie (statistica) ˆ ˆ θ = θ(X1 . cu ajutorul careia dorim sa il aproximam pe θ . ce urmeaza repartitia lui X . . . spunem ca θ este un estimator deplasat pentru θ. n [Exercitiu!] ˆ (3) Daca {x1 . . Exerciµiu 6. Xn ). xn ) se numeste estimatie a lui θ.2 (1) Dispersia de selectie modicata d2 (X) = ∗ 1 n−1 n [Xi − X]2 i=1 este un estimator nedeplasat pentru dispersia teoretica D 2 (X).

avem ˆ ˆ D2 (θ) ≤ D2 (θ∗ ). θ) pentru macar un θ . mean squared error) cantitatea ˆ MSE(θ. ˆ (7) Estimatorul θ pentru θ este un estimator consistent daca cand n −→ ∞. θ) ≤ MSE(θ2 . MSE pentru un estimator nedeplasat este D 2 (θ). Observaµia 6. θ) = E ˆ θ−θ 2 .Teoria estimaµiei 115 ˆ observata. Uniformly Minimum Variance Unbiased Estimate . θ) < MSE(θ2 . . . θ ∈ Θ. ˆ ˆ (5) Fie θ1 si θ2 doi estimatori pentru θ .. . x2 . Atunci. relative eciency) a lui θ1 in raport cu θ2 . valoarea ˆ MSE(θ1 . valoarea numerica a estimatorului. θ) pentru toate valorile posibile ale lui θ ∈ Θ ˆ ˆ si MSE(θ1 . .. se numeste pentru θ . vom nota atat estimatorul cat si estimatia cu θ si vom face diferenta intre ele prin precizarea variabilelor de care depind. X2 . θ))2 . .. . (4) Numim ˆ eroare in medie patratica a unui estimator θ pentru θ (en. ˆ (6) Un estimator θ pentru θ. θ) ˆ MSE(θ2 . estimatie consistenta . . . Vom spune ca un estimator ˆ ˆ ˆ θ1 este mai ecient decat hte2 daca MSE(θ1 .3 E Putem scrie: ˆ θ−θ 2 = E ˆ ˆ ˆ θ − E(θ) + E(θ) − θ0 2 ˆ = D2 (θ) + 2E ˆ ˆ θ − θ] · [E(θ) − θ +E ˆ E(θ) − θ 2 ˆ ˆ = D2 (θ) + (b(θ. Xn ) −→ θ. ˆ Asadar. prob ˆ θ(X1 . ˆ In acest caz.UMVUE) daca pentru orice θ ∈ Θ si orice alt ˆ estimator nedeplasat pentru θ . xn ). θ) se numeste ecienta ˆ ˆ relativa (en. se numeste estimator nedeplasat uniform de dispersie minima (en. θ ∗ . θ(x1 . Prin abuz de notatie.

pentru D2 (X). xn ).116 ˆ (8) Estimatorul θ pentru θ este un estimator absolut corect daca (i) (ii) ˆ E(θ) = θ. . x2 . ˆ Daca θ este un estimator absolut corect pentru θ . Utilizam inegalitatea lui Cebâsev in forma: ˆ D2 (θ) ˆ P ({|θ − θ| < }) ≥ 1 − . n→∞ (6. iar statistica ∗ d2 (X) este un estimator corect. . . θ(x1 . 2 ˆ Tinand cont ca lim D 2 (θ) = 0 obtinem concluzia dorita. .4 Statistica d2 (X) este un estimator absolut corect pentru σ 2 = D 2 (X). estimatie corecta pentru Exerciµiu 6. n n(n − 1) 2 cand n → ∞. n→∞ ˆ lim D2 (θ) = 0. . . x2 . se numeste θ.1) Demonstraµie. . θ(x1 . dar nu absolut corect. Avem: E(d2 (X)) = E ∗ si 1 n−1 n [Xi − X]2 i=1 = D2 (X) D2 (d2 (X)) = ∗ µ4 n−3 2 − µ → 0. ˆ lim D2 (θ) = 0. se numeste pentru θ . valoarea numerica a estimatorului. ∀ > 0. xn ). valoarea numerica a estimatorului. ˆ In acest caz. .5 Demonstraµie. [Exercitiu!] Propoziµia 6. . atunci estimatorul este consistent. n→∞ n→∞ ˆ In acest caz. estimatie absolut corecta ˆ (9) Estimatorul θ pentru θ este un estimator corect daca (i) (ii) ˆ lim E(θ) = θ.

in general X 2 = X 2 2 = 0.4352.5350. -2. θ 2 nu este.3617.0030 0. Patratul acestui estimator. θ). -0.4 iar X Asadar. -1. In (θ) (6.0521).5944 1. 0.2230. . . -0. µX = 0.3277. . este X .7359.6057.7 Pentru un anumit parametru pot exista mai multi estimatori absolut corecti.5570. Un estimator absolut corect pentru µX 2 este X 2 . (6.Teoria estimaµiei 117 Observaµia 6.1948. 1.2857.8 (Rao-Cramer) Consider caracteristica X cu functia de probabilitate f (x.1). -0.9344.6 ˆ ˆ Fie θ un estimator pentru θ .3) .0831. 1) si avem urmatoarele 20 de observatii asupra lui X : 0. pentru parametrul λ din repartitia P oisson P(λ) exista urmatorii estimatori: X si d2 (X). pentru selectia data avem ca X 2 ≈ 1.0587. atunci ar  resc ca "cel mai bun estimator" sa e cel de dispersie minima. X = 0. . b) si pentru care exista ∂θ . -0.3709.7431.027.1214. X2 .0312. -1. -0. -2. 2. (pentru selectia data.6286. Pe de alta parte. 1.0357. -0.2090.0718. .2) Teorema 6. 0.3056 0. in general. -0. ∂f ˆ ˆ Fie θ = θ(X1 . -0. 1. estimatorul pentru θ 2 .8678. Atunci. un estimator absolut corect pentru θ . Xn ).3558.4334. -0. ∗ Se pune problema: Cum alegem pe cel mai bun estimator si pe ce criteriu? Daca utilizam inegalitatea lui Cebâsev in forma (6. 0. θ) ∂θ 2 . 2. (10) Numim cantitate de informatie relativa la parametrul θ continuta in selectia corespunzatoare de volum n (informatie Fisher) expresia: In (θ) = n · E ∂ ln f (X. -0. 1. Observaµia 6.1802. ˆ D2 (θ) ≥ 1 . De exemplu. -1.3320. Un estimator absolut corect pentru media teoretica a lui X . 0.0381. De exemplu. sa presupunem ca X ∼ N (0. -2. cu θ ∈ (a. Variabila aleatoare X 2 urmeaza repartitia χ2 (1) si are media µX 2 = 1 (vezi repartitia χ2 ).

θ) ∂θ 2 .4) ˆ (12) Un estimator absolut corect θ pentru θ se numeste ˆ estimator ecient daca e(θ) = 1.11 Fie Xi ∼ B(1. . Functiile g si h nu sunt unice. Pentru Xk = xk . (6. X2 . . . adica ˆ D2 (θ) = In (θ). θ) este densitatea de repartitie pentru vectorul aleator V = (X1 . xn .118 (11) Numim ˆ ecienta unui estimator absolut corect θ pentru θ. X2 . θ) = g(x)h(θ(x). p). i = 1. x2 . Xn . X2 . . . n si n ˆ θ = nX = i=1 Xi numarul de succese in n incercari. θ) = k=1 f (Xk . Exerciµiu 6. .5) unde h : R → R+ si g : Rn → R+ este masurabila si nu depinde de θ . . n. θ).6) Exemplu 6. θ). functia L(x1 . Xn . valoarea: ˆ e(θ) = −1 In (θ) .10 [Exercitiu!] (14) Se numeste Orice estimator ecient pentru un parametru θ este si estimator sucient pentru θ . Observaµia 6. . . Putem scrie informatia Fisher in functie de verosimilitate astfel: In (θ) = E ∂ ln L(X1 . . . [Exercitiu!] estimator sucient (exhaustiv) daca functia de prob- ˆ (13) Un estimator corect θ pentru θ se numeste abilitate (densitate de repartitie) se poate scrie in forma: ˆ f (x. ˆ D2 (θ) (6. . . . statistica n L(X1 . (6. . . k = 1. Xn ).9 Media de selectie X pentru o selectie dintr-o colectivitate normala este un estimator ecient pentru media teoretica E(X). functie de verosimilitate. .

• metoda celor mai mici patrate. • metoda intervalelor de incredere.99 10 100. p) = pθ(x) (1 − p)n−θ(x) . • metoda momentelor. Metode de estimare punctuala a parametrilor: • metoda verosimilitatii maxime. √ Exerciµiu 6. p) = pxi (1 − p)1−xi i=1 n n xi = p i=1 n− (1 − p) xi i=1 ˆ = g(x) · h(θ(x). • metoda minimului lui χ2 . p). ˆ ˆ ˆ unde g(x) ≡ 1 si h(θ(x).01 11 100.02 7 (i) o estimatie absolut corecta pentru masa medie a tabletelor produse.  Avem succesiv: n f (x.Teoria estimaµiei 119 ˆ Sa se arate ca θ este un estimator sucient pentru p.98 9 99.00 13 100. (ii) o estimatie corecta si una absolut corecta pentru dispersia valorilor masei fata de medie.12 La un control de calitate se verica masa tabletelor de ciocolata produse de o anumita masina. . Pentru a se realiza acest control s-a efectuat o selectie de 50 tablete si s-a obtinut ca masa X al ciocolatelor are urmatoarele dimensiuni (in grame): Masa Frecventa Sa se determine: 99.

X2 . pentru care se obtine maximumul functiei de verosimilitate. . . ∂θk k = 1. θ) = ∂θk n i=1 ∂ ln f (Xi . . x2 . Xn . atunci acest estimator se obtine ca asolutie a sistemului de ecuatii: ∂L(X1 . . . de verosimilitate maxima Observaµia 6. n L(X1 . . . . σ) = √ e− 2σ2 . .2 Metoda verosimilit µii maxime (maximum likelihood estimator) Fie caracteristica X studiata.15  Estimati prin metoda verosimilitatii maxime parametrii unei caracteristici X ∼ N (µ. . Xn . µ. . θ) = 0. Dorim sa gasim estimatori (estimatii) punctuale ale parametrilor necunoscuti prin alta metoda decat metoda de mai sus. . p. X2 . X2 . Deniµia 6. . θp ) sunt parametri necunoscuti). 2. (6. . . X2 .13 (1) Numim estimator de verosimilitate maxima pentru θ statistica ˆ ˆ θ = θ(X1 . . . . θ). (6. Xn } variabilele aleatoare de selectie repetata de volum n. . 2.120 6. .7) ∂ ln L(X1 . Fie {X1 . .8) Exerciµiu 6. ∂L sa existe pentru ca estimatorul de verosimilitate maxima sa e calculat. θ) = k=1 f (Xk . . x1 . . . X2 . care are functia de probabilitate f (x. . x ∈ R. adica alegem o selectie de date. θ) (unde θ = (θ1 . θ2 . σ 2π . (2) Valoarea unei astfel de statistici pentru un ω (n) xat se numeste estimatie pentru θ . σ) este (x−µ)2 1 f (x. σ). ∂θk care este echivalent cu urmatorul sistem: k = 1. Xn . Daca ∂θ aceasta exista. Xn ). . . p. . .14 Nu este necesar ca Aceasta metoda estimeaza "valoarea cea mai verosimila" pentru parametrul θ . . θ) = 0. . xn . . Legea de probabilitate pentru X ∼ N (µ. . Efectuam n observatii asupra caracteristicii. . . .

9) Vericam acum daca valorile gasite sunt valori de maxim. µ. avem de rezolvat sistemul:   ∂L 1     ∂µ = σ 2 n (Xk − µ) = 0. calculam matricea hessiana. 1 n e σ n (2π) 2 1 n σ n (2π) 2 − k=1 (Xk − µ)2 2σ 2 . k=1 Asadar. σ ) − λ I2 ) = 0. X2 . . n . pe care o vom nota (XK )k=1. Aceasta este:    ∂2L H(µ. Xn . Pentru aceasta. . µ ˆ n ∂2L  − σ2 =  ˆ H(ˆ. σ) = ln − 1 2σ 2 n (Xk − µ)2 . Xn . σ ) = µ ˆ ∂µ∂σ 0  0  . 2n  − 2 σ ˆ care este o matrice negativ denita. σ) = k=1 f (Xk . pentru a gasi estimatorii de verosimilitate maxima pentru µ si σ . ln L(X1 . Mai intai. . Parametrii caracteristicii X sunt θ = (µ. matricea hessiana calculata pentru valorile obtinute trebuie sa e negativ denita. . k=1 σ= ˆ 1 n n (Xk − X)2 = d(X). . σ ).Teoria estimaµiei Alegem o selectie repetata de volum n. . µ.   Acum calculam H(ˆ. deoarece valorile sale proprii. σ2 ˆ . k=1 (6. σ) = =   ∂µ∂σ  −2 σ3 n − 2 σ n 2 − 3 σ n σ2 n  (Xk − µ) n k=1 (Xk − µ) k=1 3 1− nσ 2  (Xk − µ)2 k=1   . k=1 n  ∂L n 1     ∂σ = − σ + σ 3 (Xk − µ)2 = 0. . X2 . k=1 Se observa cu usurinta ca solutia sistemului ce convine (tinem cont ca σ > 0) este µ= ˆ 1 n n Xk = X. adica radacinile polinomului caracteristic det(H(ˆ. µ ˆ sunt λ1 = − n <0 σ2 ˆ si λ2 = − 2n < 0. σ) n = Astfel. . µ. σ) si functia de verosimilitate asociata selectiei este 121 L(X1 .

αp = E(X p ) < ∞). . θp ) sunt parametri necunoscuti) ce admite momente pana la ordinul p (adica.17 Numim estimator (punctual) pentru θ obtinut prin metoda momentelor solutia ˆ ˆ ˆ ˆ ˆ ˆ θ = (θ1 . .3 Metoda momentelor (K. . estimatorii µ si σ obtinuti prin metoda verosimilitatii maxime sunt ˆ ˆ µ=X si σ = d(X). p). . θ) (unde θ = (θ1 . . . . . Xn ) = α1 (X). Aceasta inseamna ca avem de rezolvat un sistem de ecuatii in care necunoscutele sunt parametrii ce urmeaza a  estimati. i=1 . . . . x1 . . Xn ) = αp (X). α1 (X1 . . . X2 . λ) Fie caracteristica X care are functia de probabilitate f (x. . xn . . . k = 1. 6. . . (aici θk = θk (X1 . X2 . Pentru aceasta. X2 . Deniµia 6. X2 . a sistemului: α1 (X1 . efectuam observatii asupra caracteristicii. unde αk (X1 . . . Xn } variabilele aleatoare de selectie repetata de volum n. α2 (X1 . θ2 . ci doar corect. Metoda momentelor consta in estimarea parametrilor necunoscuti din conditiile ca momentele initiale de selectie sa e egale cu momentele initiale teoretice respective. Xn ) sunt momentele de selectie de ordin k pentru X . ale lui X .10) αp (X1 . Xn ) = 1 n n Xik . . . . . . Xn ). . . Dorim sa gasim estimatori (estimatii) punctuale ale parametrilor necunoscuti. este dicil de calculat valorile critice pentru functia de verosimilitate. √ Observaµia 6. . θ2 . adica alegem o selectie de date. . . Pearson) In anumite cazuri. . Fie {X1 . . repartitia Γ(a. θp ). X2 . X2 . . . . . . . De exemplu. (6.122 Deci. . X2 . Xn ) = α2 (X).16 De remarcat faptul ca estimatorul pntru σ obtinut prin metoda verosimilitatii maxime nu este unul absolut corect. . . x2 . .

Metoda nu poate  aplicata repartitiilor care nu admit medie (e. x2 . . .  Daca X ∼ U(a. i=1 α2 = 1 n Xi2 . Exerciµiu 6. . estimatie ˆ ˆ ˆ ˆ ˆ (punctuala) pentru θ va  o realizare a estimatorului θ = (θ1 .19 Fie X ∼ U(a. . cu θk = ˆ θk (x1 .g. unde a < b sunt numere reale. repartitia Cauchy). xn ). k = 1. . .18 Aceasta metoda este fundamentata teoretic pe faptul ca momentele de selectie sunt estimatori absolut corecti pentru momentele teoretice corespunzatoare. 2. .Teoria estimaµiei si αk (X) sunt momentele teoretice pentru X (care depind de θ ).11) α1 = 1 n Xi . avem de gasit solutia (ˆ. θp ). . . . O k = 1. 1 ˆ = α1 + b √ 3 α2 − α2 . Observaµia 6. Xn ) = E(X) α2 (X1 . adica: 123 αk = E(X k ). i=1 Inlocuind in relatiile (6. . Sa se determine prin metoda momentelor estimatori pentru capetele intervalului. atunci E(X) = de unde a+b . . 3 E(X 2 ) = D2 (X) + [E(X)]2 = Sistemul (6. X2 . 1 Aceasta este: a = α1 − ˆ √ 3 α2 − α2 . . Xn ) = E(X 2 ). unde n n (6. 12 a2 + ab + b2 . b) caracteristica unei populatii. .. .10) se scrie astfel in acest caz: α1 (X1 . . . . p. b).11). X2 . . ˆ a urmatorului sistem: a b) a + b = 2 α1 a · b = 4 α2 − 3 α2 . 1 . . 2 D2 (X) = (b − a)2 . θ2 . p).

124 Facand calculele si tinand cont ca α1 X . i=1 Estimatiile punctuale pentru a si b sunt: a = ˆ 1 n 1 n n xi − i=1 n 3 n 3 n n (xi − x)2 i=1 n ˆ = b xi + i=1 (xi − x)2 i=1 √ 6. Variabilele aleatoare i sunt erori. Fie θ = (θ1 . θp ) vectorul ce contine parametrii necunoscuti si Yi depind de acestia dupa urmatorul sistem: p Yi = j=1 xij θj + i . n. . . 1 X= n n Xi i=1 si s= 1 n n (Xi − X)2 . X = (xij ) ∈ Rm×p . . depind liniar de parametrii necunoscuti.4 Metoda celor mai mici p trate Este o metoda de estimare a parametrilor in cazul modelelor liniare. adica n n 2 i i=1  Yi − p 2 xij θj  . ∀i = j. j ) = 0.12) sau. . . θ2 . 2. Metoda celor mai mici patrate consta in determinarea parametrilor θi astfel incat suma patratelor erorilor sa e minima. (6. . . (6. . i = 1. i = 1. 2. respectiv. n. scris sub forma matriceala: Y =X·θ+ . . .13) cov ( i . ˆ=X+ b √ 3 s. obtinem estimatorii pentru a si. cand variabilele aleatoare Yi . min θ = min θ i=1 j=1 . . . i = 1. n. b: a=X− ˆ unde √ 3 s. despre care presupunem ca: E( i ) = 0 D2 ( i ) = σ2 .

ˆ  Putem scrie Xi = µ + i . unde θ = (θ1 . . . . X2 . . . p. (6. θ). j=1 n p n xik xij θj = i=1 j=1 i=1 xik Yi . . . i=1 √ 6. (6. . Estimatorul prin metoda celor mai mici patrate pentru media teoretica µ este solutia problemei de minimizare n min µ i=1 (Xi − µ)2 . . θ2 .Teoria estimaµiei 125 ˆ ˆ ˆ ˆ Astfel. X1 . µ = E(X) si consideram variabilele aleatoare de selectie repetata de volum n. . . .14) este solutia ecuatiei ∂ ∂µ adica n (Xi − µ)2 = 0. θp ) prin metoda celor mai mici patrate este solutia sistemului: ∂ ∂θj echivalent. .5 Metoda minimului lui χ2 Consideram caracteristica X ce urmeaza a  studiata. .15) cu i satisfacand conditiile (6. i=1 ˆ 1 θ= n n Xi .13). . . .14) si este µ = X . . . θp ) ∈ Θ ⊂ Rp sunt parametri necunoscuti. . 2. . n. k = 1. . Exerciµiu 6.20 Fie X o caracteristica ce admite medie. X2 . p. ˆ de unde gasim ca estimatorul θ este −1 ˆ θ = (X · X) · X · Y. . Xn . θ2 . ce are legea de probabilitate data de f (x. un estimator θ = (θ1 . . . . i = 1. Xn variabilele . j = 1. . Solutia problemei (6. Notam cu σ 2 = D 2 (X). Fie X1 . . n i=1  Yi − p 2 xij θj  = 0. 2. 2. Ultimul sistem poate  scris sub forma matriceala: X · X · θ = X · Y.

. astfel: k X(Ω) = i=1 Oi . i = 1. .e. k pi (θ) = 1. ∀i = j. ∀i = j. . k . n · pi (θ) . . . Descompunem multimea valorilor lui X . X(Ω). . k ). in clase. Oi Oj = ∅.23 Statistica k i=1 [Ni − n · pi (θ)]2 ∼ χ2 (k − p − 1). i = 1. Vectorul aleator N = (N1 . . k. X(ωi ) ∈ Oi }.. N2 . Propoziµia 6.126 ˆ aleatoare de selectie repetata de volum n. . Observaµia 6. i. Nk ) urmeaza o repartitie multinomiala de parametri Deniµia 6. Ni sunt variabilele aleatoare de selectie corespunzatoare lui ni (i = 1. k. 2. . . k Ω(n) = i=1 Ai . i=1 Mai facem urmatoarele notatii: ni este frecventa absoluta a evenimentului Ai in orice selectie repetata de volum n.22 ˆ Statistica θ se numeste estimator obtinut prin metoda minimului lui χ2 pentru θ daca ˆ θ este solutie a problemei de minim k min i=1 [Ni − n · pi (θ)]2 n · pi (θ) . Pentru a obtine un estimator θ pentru θ procedam dupa cum urmeaza. . Construiesc evenimentele Ai = {ω (n) ∈ Ω(n) . Se observa cu usurinta ca i = 1. 2. .21 pi (θ). Notam cu pi (θ) = P (n) (Ai ). probabilitatea ca un individ luat la intamplare sa apartina clasei Oi . Ai Aj = ∅. Atunci.

Deniµia 6.g. α = 0. cu θ parametru necunoscut. atunci putem gasi un estimator punctual (e.. .98 sau 0. . xn . xn ) se numeste valoare a intervalului de incredere pentru θ. . xn ). .. cu o probabilitate destul de mare. . sa gasim valoarea reala a lui θ . . . θ(x1 . De exemplu. .n. X2 . . . x2 . . 0. . Pentru o observatie ω (n) xata. x2 . X2 . X2 . Numim condence interval) pentru parametrul θ cu probabilitatea de incredere interval de incredere (e. X1 . Dorim sa gasim un interval aleator care sa acopere cu o probabilitate mare (e. unde θ(X1 . xn )..25 urmeaza: Pentru a determina un interval de incredere. metoda de lucru este dupa cum . . x2 . . nivel de semnicatie sau probabilitate de risc. . Ideal ar  daca aceasta informatie ar  prezentata sub forma: masa medie este 500g±10g. efectuam n observatii. . media de selectie) care sa ne indice ca aceasta este de 500 de grame. foarte apropiat de 0 (de exemplu. 0. . capetele intervalului (aleator) de incredere vor  functii de valorile de selectie. Putem obtine astfel de informatii daca vom construi un interval in care. intervalul (6. .16) θ(x1 . . θ). x1 . . ˆ Dupa cum am vazut anterior. obtinand selectia: x1 . Xn ) si θ(X1 . . . .02 sau 0. . . 0.95.g. . x2 . θ). putem gasi o estimatie punctuala a parametrului. ce urmeaza repartitia lui X . θ(x1 . . x2 . xn .05). 1 − α. un interval aleator (θ. 1). . .Teoria estimaµiei 127 6. Pentru a estima valoarea reala a lui θ . x2 . . De exemplu. .6 Metoda cu intervale de încredere Sa consideram o caracteristica X a carei lege de probabilitate este data de f (x. xn ) fata de valoarea reala a parametrului θ . ˆ Estimatia punctuala nu ne precizeaza cat de aproape se gaseste estimatia θ(x1 . daca dorim sa estimam masa medie a unor produse alimentare fabricate de o anumita masina. Xn ) sunt statistici. . .01. Valoarea α se numeste Observaµia 6.24 Fie α ∈ (0. pentru datele observate.99) valoarea posibila a parametrului necunoscut. Sa consideram o selectie repetate de volum n. . . . Xn . astfel incat P (θ < θ < θ) = 1 − α.

Cu cat α este mai mic (de regula. Intervalul de incredere variaza de la o selectie la alta. Alegem urmatoarea statistica: Z= X −µ σ ∼ N (0. 1). astfel incat s2 P (s1 < S < s2 ) = s1 g(s) ds = 1 − α. Vom cauta in continuare intervale de incredere pentru parametrii unor caracteristici normale. .55%. Se determina apoi valorile s1 si s2 (care depind de α). sa presupunem ca intr-un an calendaristic un eveniment are sansa de 99% de a se realiza.18) Putem determina un interval numeric (z1 . atunci rezultatul ar  fost ≈ 96.42%. (6.23).128 se va considera functie de selectie S(X1 . atunci putem obtine intervale innite la un capat si nite la celalalt capat. Daca ni se dau conditii suplimentare (e.16). (6.6. cu atat sansa (care este (1 − α) · 100%) ca valoarea reala a parametrului θ sa se gaseasca in intervalul gasit este mai mare. cand dispersia este cunoscuta Fie X ∼ N (µ. θ) ce satisface (6.99%. sunt cazuri in care ecare sutime conteaza.1 Interval de încredere pentru medie. Pentru a construi un interval de incredere pentru media teoretica µ. θ). (6. din (6. Daca sansa de realizare in ecare zi ar  fost de 99.99365 ≈ 2. .02 sau 0. in orice zi a anului. α ∈ (0. σ) caracteristica uneo populatii statistice. Atunci.17) Cum statistica S depinde de θ . care sa urmeze o lege cunoscuta si independenta de θ . sansa ca acest eveniment sa se realizeze in ecare zi a anului in tot decursului acestui an este de 0.01 sau 0. Intervalul de incredere pentru valoarea reala a unui parametru nu este unic. unde µ este necunoscut si σ este cunoscut. Desi sansele 99% sau 99. De exemplu. efectuam o selectie repetata de volum n si xam nivelul de incredere 1 − α ≈ 1.g.19) .. X2 . xarea unui capat).05). ceea ce inseamna o diferenta foarte mare generata de o diferenta initiala foarte mica.17) obtinem un interval aleator (θ. . 6. independent de celelalte zile. α = 0. convenabil aleasa. z2 ) astfel incat P (z1 < Z < z2 ) = Θ(z2 ) − Θ(z1 ) = 1 − α. 1) √ n (conform Propozitiei 5. Xn . Sa notam cu g(s) aceasta repartitie.99% par a  foarte apropiate si a da rezultate asemanatoare. .

de unde intervalul de incredere pentru µ cu nivelul de semnicatie (1 − α) este (µ. 2 z2 = z1− α . 2 2 Asadar. de unde: Θ(z2 ) − Θ(−z2 ) = 1 − α. z2 ) este determinat. 2 n σ X + z1− α √ 2 n . 2 si intervalul de incredere pentru media teoretica µ cand σ este cunoscut este: (µ. 2 de unde gasim pe z2 ca ind cuantila de ordin 1 − α . z1 = −z1− α . ultima relatie se reduce la Θ(z2 ) = 1 − α . 1 Θ(x) = √ 2π x −∞ e− y2 2 dy. putem scrie: P (z1 < X −µ σ < z2 ) = 1 − α. Mai ramane de stabilit cum determinam valorile z1 si z2 .26). Inlocuind in (6.Teoria estimaµiei unde Θ : R+ → R+ este 129 functia lui Laplace. si anume z1− α . Aceasta se obtine cand z1 = −z2 (vezi Observatia 6. atunci in (6. z2 ) ca ind interval de lungime minima pentru α xat. Distingem trei cazuri: (1) Daca nu se cunoaste o alta informatie suplimentara despre µ. µ) = σ σ X − z2 √ .21) (2) Daca pentru media teoretica nu se precizeaza o limita superioara. √ n echivalent cu P σ σ X − z 2 √ < µ < X − z1 √ n n = 1 − α. atunci alegem (z1 . (6. µ) = σ X − z1− α √ .20) De indata ce intervalul (z1 . (6.19) aleg intervalul aleator (z1 .19) obtinem: P (−∞ < Z < z2 ) = Θ(z2 ) − Θ(−∞) = 1 − α. z2 ). z2 ) de forma (−∞. =0 . Tinand cont ca Θ(−z) = 1 − Θ(z). X − z1 √ n n .

. am ales intervalul aleator de lungime minima. z1 (6. µ) = −∞. folosim metoda multiplicatorilor lui Lagrange.19) obtinem: P (z1 < Z < ∞) = Θ(∞) −Θ(z1 ) = 1 − α. Acestea sunt solutiile sistemului:   ∂L   =0 ∂z1  ∂L   = 0. ∞). n cu solutiile z1 = z2 (ce nu convine) si z1 = −z2 . unde aceasta σ l = √ (z2 − z1 ). σ X + z1−α √ n . avem de rezolvat problema:    min  z1 σ √ (z2 n − z1 )  z2  g(z) dz = 1 − α. z2 . n Pentru a gasi acest interval. In acest caz. ∂z2 adica   σ  − √ − λg(z1 ) = 0  n  σ    √ − λg(z1 ) = 0. In acest caz. Observaµia 6.22) Dorim sa aam z1 si z2 ce realizeaza min L(z1 . =1 de unde z1 = zα = −z1−α .26 lungime este In cazul (1) de mai sus.19) aleg intervalul aleator (z1 . z2 . intervalul de incredere este: (µ. Fie functia σ L(z1 .   Pentru a o rezolva. λ). ∞) = σ X − z1−α √ .130 de unde z2 = z1−α . (3) Daca pentru media teoretica nu se precizeaza o limita inferioara. intervalul de incredere este: (−∞. λ) = √ (z2 − z1 ) + λ · n z2 g(z) dz = 1 − α . atunci in (6. z2 ) de forma (z1 . n ∞ . Inlocuind in (6.

m2)=(%6.29 (estimare a intervalului de incredere cand σ nu este cunoscut) sau 6.659. x=[257 249 251 251 252 251 251 249 248 248 251 253 248 245 251 .478). n=30. %% cuantila de ordin 1-alpha/2 pentru normala %% capetele intervalului m1 = mean(x)-z*sigma/sqrt(n).0667. Desigur. µ) = (248. .0. x30 dupa cum urmeaza: 257 248 249 256 251 247 251 250 252 247 251 251 249 251 247 252 248 248 248 253 251 251 253 247 248 253 245 244 251 253 Se stie ca un estimator absolut corect pentru masa medie este media de selectie. x2 . Se cere sa se gaseasca un interval de incredere pentru µ. un interval de incredere pentru µ este: (µ. sigma=3.01. . Se doreste ca inghetata din cupe Exerciµiu 6. µ) = Urmatorul cod σ x − z1− α √ . .  Dupa cum am vazut mai sus.%6. Pentru a verica daca masina este ajustata bine. %% afiseaza intervalul dupa modul dorit Ruland codul. Matlab furnizeaza un interval de incredere bazat pe datele de selectie observate. A se compara rezultatul din acest exercitiu cu cel din Exercitiile 6. se aleg la intamplare 30 de inghetate si se cantareste continutul ecareia.1-alpha/2. cu nivelul de condenta 0. . 248 256 247 250 247 251 247 252 248 253 251 247 253 244 253].m1. . X = 250. m2 = mean(x)+z*sigma/sqrt(n). 2 n σ x + z1− α √ 2 n .99. z = icdf('norm'.Teoria estimaµiei 131 O masina de inghetata umple cupe cu inghetata. fprintf('(m1.. Obtinem astfel o selectie repetata. obtinem intervalul de incredere pentru µ cand σ este cunoscut: (µ. Presupunem ca masa continutului din cupa este o variabila aleatoare repartizata normal.3f. cu masa necunoscuta si dispersia cunoscuta. √ Observaµia 6..1). este practic imposibil sa umplem ecare cupa cu exact 250g de inghetata. x1 . σ = 3g.28 Exista functii predenite in Matlab ce furnizeaza estimatori punctuali si interMatlab vale de incredere. alpha = 0.33 (intervale furnizate de functii predenite).3f)\n'.m2). 251.27 sa aiba masa de µ = 250g.

24) .2 Interval de încredere pentru medie.1: Intervalul de incredere pentru Exercitiu 6.6. Stim deja ca o estimatie absolut corecta pentru σ este statistica d∗ (X). atunci el va trebui estimat.132 Figure 6. n−1 √ 2 n . cand dispersia este necunoscuta Ne aam in conditiile din sectiunea precedenta. (6. 2 n d∗ (X) X + t1− α . alegem statistica T = X −µ ∼ t(n − 1).27.23) In mod analog cu cazul precedent. n−1 √ . Daca acesta este necunoscut. data prin d∗ (X) = 1 n−1 n (Xi − X)2 . d∗ (X) √ n (conform Propozitiei 5. µ) = d∗ (X) X − t1− α . i=1 Pentru a estima media teoretica necunoscuta µ printr-un interval de incredere. 6.38). atunci intervalul de incredere pentru media teoretica µ cand σ este necunoscut este: (µ. mai putin faptul ca σ este cunoscut. gasim intervalul de incredere in functie de cele trei cazuri amintite mai sus: (1) Daca nu se cunoaste o alta informatie suplimentara despre µ. (6.

01.572. 251. 2 n d∗ (X) x + t1− α . Exerciµiu 6. (3) Daca pentru media teoretica nu se precizeaza o limita inferioara. in cazul in care abaterea standard σ nu mai este cunoscut.29 Sa se gaseasca un interval de incredere pentru masa medie din Exercitiul 6.n-1). n ∞ .33 (intervale furnizate de functii Matlab predenite). µ) = (248.. %% deviatia standard de selectie %% cuantila de ordin 1-alpha/2 pentru t(n-1) %% capetele intervalului m1 = mean(x)-t*dev/sqrt(n). 248 256 247 250 247 251 247 252 248 253 251 247 253 244 253].m2)=(%6.1-alpha/2.%6.27. n−1 √ . t = icdf('t'. fprintf('(m1. atunci intervalul de incredere este: (−∞. prin tα. dev = std(X). Aici. %% afiseaza intervalul dupa modul dorit Ruland codul. µ) = Urmatorul cod d∗ (X) x − t1− α . n−1 √ . n−1 √ n .27 (estimare a intervalului de incredere cand σ este cunoscut) sau Exercitiul 6. √ Observaµia 6. atunci intervalul de incredere este: (µ. n=30. x=[257 249 251 251 252 251 251 249 248 248 251 253 248 245 251 . n−1 √ 2 n .561). un interval de incredere pentru µ este: (µ. alpha = 0. (ii) Cand n este mare.3f)\n'. m2 = mean(x)+t*dev/sqrt(n).  Dupa cum am vazut mai sus. Matlab furnizeaza un interval de incredere bazat pe datele de selectie observate. d∗ (X) X − tα. ∞) = d∗ (X) X − t1−α.Teoria estimaµiei 133 (2) Daca pentru media teoretica nu se precizeaza o limita superioara. 2 2 ..3f.m2). obtinem intervalul de incredere pentru µ cand σ este cunoscut: (µ. µ) = −∞.m1. atunci va  o diferenta mica intre valorile z1− α si t1− α . n−1 am notat cuantila de ordin α pentru repartitia t cu (n − 1) grade de libertate.30 (1) A se compara rezultatul din acest exercitiu cu cel din Exercitiile 6. n−1 .

necunoscute. Pentru a gasi un interval de incredere pentru diferenta mediilor. notata prin (X1k )k=1.28) . in urmatoarele trei cazuri: 2 2 • dispersiile σ1 si σ2 sunt cunoscute a priori. (6. ce urmeaza repartitia lui X1 .134 6. σ1 ). i=1 2 2 • dispersiile σ1 = σ2 .41): T = unde (X1 − X2 ) − (µ1 − µ2 ) (n1 − 1)d2 (X1 ) ∗ 1 n1 − 1 + (n2 − n1 1)d2 (X2 ) ∗ n1 + n2 − 2 1 1 n1 + n2 ∼ t (n1 + n2 − 2). (6. N (µ1 . notata prin (X2k )k=1. pentru care nu se cunosc mediile teoretice. (conform Propozitiei 5. N (µ1 . respectiv.26) d2 (X1 ) = ∗ (X1k − X1 )2 . Alegem din prima populatie o selectie repetata de volum n1 . Pentru a gasi un interval de incredere pentru diferenta mediilor. vom specica doar statisticile care stau la baza gasirii intervalului. + n1 n2 2 2 • dispersiile σ1 = σ2 = σ 2 si necunoscute. n2 .25) n1 + 2 σ2 n2 Intervalul de incredere pentru diferenta mediilor este:  X1 − X2 − z1− α 2 2 σ1 σ2 + 2. alegem statistica T = (X1 − X2 ) − (µ1 − µ2 ) d2 (X1 ) ∗ n1 + d2 (X2 ) ∗ n2 ∼ t(N ). (utilizand Propozitia 5. In acest scop. n1 . (6.6. alegem statistica (vezi Propozitia 5. Pentru a gasi un interval de incredere pentru diferenta mediilor. σ1 ).27). 1 n2 − 1 (6. n1 n2 X1 − X2 + z1− α 2  2 2 σ1 σ2  . 1). ce urmeaza repartitia lui X2 .27) unde N= d2 (X1 ) d2 (X2 ) ∗ + ∗ n1 n2 d2 (X1 ) ∗ n1 2 2 1 + n1 − 1 d2 (X2 ) ∗ n2 2 − 2.3 Interval de încredere pentru diferenta mediilor Fie X1 si X2 caracteristicile a doua populatii normale.40). Fixam pragul de semnicatie α. si d2 (X2 ) = ∗ i=1 1 n2 − 1 n2 (X2k − X2 )2 . si din a doua populatie alegem o selectie repetata de volum n2 . aleg statistica Z= (X1 − X2 ) − (µ1 − µ2 ) 2 σ1 ∼ N (0.

32). . (6.6. σ 2 ) = −∞. cand media este necunoscuta Fie X ∼ N (µ.30) (3) ni se spune ca dispersia este nemarginita inferior: (σ 2 . σ) o caracteristica a unei populatii studiate.6. Alegem o selectie repetata X1 .29) (2) ni se spune ca dispersia este nemarginita superior: (σ 2 . cand media este cunoscuta Fie X ∼ N (µ. α. gasim ca intervalul de incredere pentru σ 2 este: (1) nu avem informatii suplimentare despre dispersie: (σ 2 . (6. 2 2 1 σ2 unde aici Gn (x) reprezinta functia de repartitie teoretica pentru repartitia χ2 cu n grad de libertate. X2 . (6. n α 2 . n 1− 2 n d2 (X) χ2 . σ 2 ) = n d2 (X) . X2 . Determin intervalul aleator din conditia: P χ2 < 1 n 2 d (X) < χ2 = Gn (χ2 ) − Gn (χ2 ) = 1 − α. Xn ce urmeaza repartitia lui X . Dorim sa estimam dispersia prin construirea unui interval de incredere. .6.Teoria estimaµiei 135 6. X reprezinta timpul de producere a unei reactii chimice. σ) o caracteristica a unei populatii studiate. .31) unde prin χ2 n am notat cuantila de ordin α pentru repartitia χ2 cu n grade de libertate. . 6. χ2 α . Dorim sa estimam dispersia prin construirea unui interval de incredere. Intervalul de incredere pentru dispersie se construieste cu ajutorul statisticii n 2 1 d (X) = 2 2 σ σ n (Xi − µ)2 ∼ χ2 (n). +∞ . pentru care cunoastem media teoretica µ dar nu si dispersia σ 2 . . Fixam pragul de semnicatie α. i=1 (conform Propozitiei 5. .4 Interval de încredere dispersie. pentru care nu cunoastem media sau dispersia. In functie de faptul daca avem sau nu informatii suplimentare despre dispersie (analog ca in sectiunea 6.1). De exemplu.5 Interval de încredere dispersie. . . Xn ce . σ 2 ) = n d2 (X) . Alegem o selectie repetata X1 . . n d2 (X) χ2 n 1−α. χ2 n α.

2 1 unde Gn−1 (x) reprezinta functia de repartitie teoretica pentru repartitia χ2 cu (n−1) grad de libertate. si din a doua populatie alegem o selectie repetata de volum n2 ce urmeaza repartitia lui X2 .35) .1). In functie de faptul daca avem sau nu informatii suplimentare despre dispersie (analog ca in sectiunea 6. pentru care nu se cunosc mediile si dispersiile teoretice. σ2 ).34) 6. respectiv.35). i=1 (conform Propozitiei 5.6 Interval de încredere pentru raportul dispersiilor Fie X1 si X2 caracteristicile a doua populatii normale. Intervalul de incredere pentru dispersie se construieste cu ajutorul statisticii n−1 2 1 d∗ (X) = 2 2 σ σ n (Xi − X)2 ∼ χ2 (n − 1). (2) ni se spune ca dispersia este nemarginita superior: (σ 2 . n2 − 1). σ1 ). (6.32) unde prin χ2 n−1 am notat cuantila de ordin α pentru repartitia χ2 cu (n − 1) grade de libertate. +∞ . χ2 α . 2 σ1 d2 ∗2 (conform Propozitiei 5. σ 2 ) = (n − 1)d2 (X) ∗ .6. χ2 n−1 α. (6. n−1 1− 2 (n − 1)d2 (X) ∗ χ2 . Fixam pragul de semnicatie α. σ 2 ) = (n − 1)d2 (X) ∗ . Determin intervalul aleator din conditia: P χ2 < 1 n−1 2 d (X) < χ2 2 σ2 ∗ = Gn−1 (χ2 ) − Gn−1 (χ2 ) = 1 − α. (6. gasim ca intervalul de incredere pentru σ 2 este: (1) nu avem informatii suplimentare despre dispersie: (σ 2 . N (µ2 . (n − 1)d2 (X) ∗ χ2 n−1 1−α.44).33) (3) ni se spune ca dispersia este nemarginita inferior: (σ 2 . Alegem din prima populatie o selectie repetata de volum n1 ce urmeaza repartitia lui X1 . N (µ1 . . α. 2 σ1 / 2 σ2 consideram statistica F = 2 σ2 d2 ∗1 ∼ F(n1 − 1. σ 2 ) = −∞. Pentru a gasi un interval de incredere pentru raportul dispersiilor.136 urmeaza repartitia lui X .6. Fixam pragul de semnicatie α. (6. n−1 α 2 .

(6. 2. n2 −1.6. .7 Interval de incredere pentru selectii mari Sa presupunem acum ca trasatura X studiata la o populatie statistica nu este de tip normal. n. m) grade de libertate. (6. n2 −1. Aleg: f1 = fn1 −1. urmeaza ca si vari- abilele aleatoare (Yk )k sunt independente stochastic si identic repartizate. 1− α 2 d2 ∗2 . Sa notam cu f (x. f2 ) astfel incat 137 P (f1 < F < f2 ) = Fn1 −1. 2 2 Intervalul de incredere pentru raportul dispersiilor. ∂θ admit dispersie (adica. n2 −1. . α . θ) . n2 −1 (f1 ) = 1 − α. θ) legea sa de repartitie. ∀k = 1. Pentru a-l estima printr-un interval de incredere. putem scrie: 1 √ d n n Yk − E(Yk ) k=1 ∼ N (0.Teoria estimaµiei Determinam apoi un interval aleator (f1 . m. (Xk )k=1. Utilizand Teorema limita centrala. n). . k=1 cand n → ∞. unde Fn. m este functia de repartitie pentru repartitia F isher cu (n. 1). . α reprezinta cuantila de ordin α pentru repartitia F isher cu (n. . pentru un n sucient de mare. 2 unde fn. statistica 1 √ d n n Yk ∼ N (0. k = 1. n2 −1. 2 d2 ∗2 d2 ∗1 fn1 −1. unde θ este un parametru real necunoscut. Propoziµia 6. n2 −1 (f2 ) − Fn1 −1. α 2 si f2 = fn1 −1. vom considera o selectie repetata.37) Demonstraµie. Atunci. de volum n (n > 30) relativa la caracteristica X . Deoarece (Xk )k sunt independente stochastic si identic repartizate. σ1 /σ2 este: d2 ∗1 fn1 −1. 1− α . n .36) 6. m) grade de libertate. exista d2 = D2 (Yk ).31 Presupunem ca variabilele aleatoare Yk = not ∂ ln f (Xk . 1).

λ E(Yk ) = Calculam dispersia lui Yk . . . . Atunci. Xn )). z) = (−z1− α . putem gasi un interval de incredere pentru parametrul θ .138 Dar E(Yk ) = E = R ∂ ln f (Xk . Consideram (Xk )k=1. v. 1). θ) 1 = Xk − 1. Exerciµiu 6. ∂θ λ 1 E(Xk ) − 1 = 0. k = 1. X2 . θ) dx ∂θ R ∂ (1) = 0. . Gasim astfel ca statistica λ 1 √ d n n Yk = √ k=1 1 nλ n Xk − λ k=1 = n X −λ λ ∼ N (0. λ) = e−λ Yk sunt date de: Yk = Evident. 2 λ λ 1 de unde d = √ . cu nivelul de semnicatie α. 2. ˆ ˆ (θ1 (X1 . Xn ). X2 . . . astfel incat: 2 2 P 1 −z < √ d n n Yk < z k=1 = 1 − α. θ2 (X1 . . . ∂ f (x. . D2 (Yk ) = 1 2 1 D (Xk ) = . .a. . θ) ∂θ ∂ ln f (x. de unde gasim intervalul de incredere pentru valoarea lui θ . n. 2. k = 1. de selectie de volum n. x ∈ N. . Stim ca E(X) = x! D2 (X) = λ. Dorim sa determinam un interval de incredere pentru parametrul λ. . ∂ ln f (Xk . .32 Fie X ∼ P(λ) o caracteristica a unei populatii. ∂θ Daca xam un nivel de incredere α. . θ) dx ∂θ = = de unde rezulta concluzia propozitiei. . n. n ≥ 30. λx . . z1− α ). Mai intai cautam un interval aleator (−z. variabilele aleatoare  Legea de probabilitate pentru X este data de f (x. n . θ) f (x.

P (λ1 < λ < λ2 ) = 1 − α. λ2 ). unde λ1 si λ2 sunt solutiile ecuatiei: λ2 − (2 x + s2 )λ + x2 = 0. −z < n X −λ <s λ = Θ(z) − Θ(−z) = 1 − α. Deci. vom cauta un z astfel incat sa avem: P sau. intervalul de incredere este (λ1 .Teoria estimaµiei 139 Putem astfel construi un interval de incredere pentru λ. n . Utilizand aceasta statistica.

n−1 2 σ2 µ necunoscut d∗ (X) √ . n−1 2 σ2 d∗ (X) √ n X1 − X2 − z1− α 2  n1 + n2 . n X + t1− α . 2 d2 ∗2 d2 ∗1 fn1 −1. . Parametru Alti parametri Interval de incredere cu nivelul de semnicatie α σ √ . n−1 d∗ (X) √ . n2 −1. X1 − X2 + z1− α 2 2 σ1 n1 + 2 σ2   n2 µ 1 − µ2 necunoscuti 2 2 σ1 = σ2 X1 − X2 − t1− α .140 6. n−1 α 2 2 σ1 2 /σ2 necunoscuti µ1 . n2 −1. n1 n2 n d2 (X) . n−1 2 d∗ (X) √ n X − t1−α. N 2 n d2 (X) χ2 . µ 2 d2 ∗1 fn1 −1. la un nivel de semnicatie α. n +∞ −∞. χ2 α .1: Tabel cu intervale de incredere. χ2 α . n σ √ n X − z1− α 2 σ2 µ cunoscut X + z1− α 2 X − z1−α σ √ .7 Tabel cu intervale de incredere Intervale de incredere pentru parametrii repartitiei normale. σ 2 2 σ1 X − tα. n 1− 2 X1 − X2 + t1− α . n−1 1− 2 (n − 1)d2 (X) ∗ χ2 . N 2 d2 d2 ∗1 + ∗2 .  µ 1 − µ2 cunoscuti 2 2 σ1 . n +∞ −∞. α . 1− α 2 d2 ∗2 Table 6. n α 2  d2 d2  ∗1 + ∗2 n1 n2 σ2 cunoscut µ σ2 necunoscut µ (n − 1)d2 (X) ∗ . X + z1−α σ √ n X − t1− α .

pCI este variabila de memorie pentru intervalul (intervalele) de incredere ce va  estimat..1. reprezinta numarul de repetitii ale experimentului.1)+55] [p.22 .10*rand(76.10*rand(87. distribution este parte din formatul comenzii iar lege poate  oricare dintre legile din tabelul 3.1)+35.005. pCI] = mle(X) fara a mai preciza legea de distributie.'nume_1'.8 Functii de estimatie in Matlab 141 Estimarea parametrilor prin metoda verosimilitatii maxime poate  realizata in functia mle.Teoria estimaµiei 6..3.) unde: • • • • p este parametrul (sau parametrii) (sau vectorul de parametri) ce urmeaza a  estimat punctual. Daca urmarim sa estimam parametrii unei caracteristici gaussiene. atunci putem folosi comanda simplicata: [p.1)+18. • nume_i/val_i sunt perechi optionale de argumente/valori.'val_1'. Formatul general al functiei este: Matlab folosind [p.'lege'.  ntrials (utilizata doar pentru repartitia binomiala.'val_2'.10*rand(124.1)+25. dintre care amintim:  alpha reprezinta nivelul de condenta pentru intervalul de incredere. sa luam drept obiect de lucru datele din tabelul 1.0228 % estimari punctuale pentru µ si σ . Aceastea sunt reprezentate prin bare in Figura 1.1)+45. pCI] = mle(X) si obtinem estimarile: p = 41.'nume_2'. De exemplu.'distribution'.9716 12.10*rand(64. X este un vector ce contine datele ce urmeaza a  analizate. pCI] = mle(X.. O estimare a parametrilor µ si σ prin metoda verosimilitatii maxime este X=[7*rand(34. Valoarea implicita in Matlab este α = 0.

1. cu mentiunea ca dispersia nu este cunosDorim sa obtinem o extimatie printr-un interval de incredere pentru priori (vezi Exercitiul 6. sunt exact aceleasi ca cele obtinute in Exercitiul 6.sCI]=normfit(X. µ cand σ nu este cunoscuta.34 Sa presupunem acum ca facem 50 de selectii repetate de volum 30 (adica alegem in 50 de zile o selectie de 30 de inghetate) si aam intervalele de incredere (toate cu nivelul de condenta . Ruland functia.29). (mCI). (Exemple: normfit.2111 4.alpha) unde.572 251. in locul cuvantului LEGE punem o lege de probabilitate ca in tabelul 3. iar a doua coloana estimarea punctuala si un interval de incredere pentru σ .27.1779 11.9704 sCI = 2. poissfit.9547 % intervale de incredere unde.7653 43.142 pCI = 40.561 s = 2. Exerciµiu 6. binofit. Folosind functia de mai sus. obtinem chiar mai mult decat ne propunem. si anume: estimatii punctiale pentru µ si σ si interval de incredere pentru ambele.01) Observam ca valorile furnizate pentru intervalul de incredere pentru µ.33 cuta a Suntem.0667 mCI = 248. Estimari punctuale si cu intervale de incredere mai putem obtine si utilizand functia LEGEfit(X.0. m = 250.s. X reprezinta observatiile si alpha este nivelul de condenta.mCI. din nou. in cadrul Exercitiului 6.2439 12. prima coloana reprezinta estimarea punctuala si un interval de incredere pentru µ.4159 Observaµia 6. expfit etc).29. adica [m.

.Teoria estimaµiei 143 α = 0.2: 50 de realizari ale intervalului de incredere pentru µ Dupa cum se observa din gura. Figure 6.2 reprezinta grac cele 50 de intervale. se poate intampla ca un interval de incredere generat sa nu contina valoarea pe care acesta ar trebui sa o estimeaze.99. Aceasta nu contrazice teoria. deoarece probabilitatea cu care valoarea estimata este acoperita de intervalul de incredere este P µ < µ < µ = 1 − α = 0.01) pentru masa medie a continutului. deci exista sanse de a gresi in estimare. Figura 6. in cazul de fata de 1%.

58.99.144 Repartitia binomiala B(n.99 ≈ 1. pentru orice n xat din N∗ . deducem ca n=1 P (An ) = ∞. cand dispersia σ 2 este cunoscuta. Pentru acest α. {Xk }k=1. este dat de: (µ.9 Paradox cu intervale de încredere Sa presupunem ca X ∼ N (µ. ∞ Deoarece P (An ) = 0. σ) µ=X ˆ σ = d∗ (X) ˆ mean var Table 6.58 2.2: Estimatori punctuali uzuali pentru parametri. pentru ecare n ∈ N∗ . utilizand Teorema Borel-Cantelli . µ) = σ X − z1− α √ . cuantila corespunzatoare este z1− α ≈ 2. In Sectiunea 6. 2. am gasit ca un interval de incredere pentru media µ. Atunci. λ) Estimator uzual p= ˆ X n Functia Matlab csbinpar cspoipar csexpar csgampar 2 ˆ λ=X 1 ˆ λ= X a= ˆ X 1 n n 2 Xk − X k=1 2 ˆ λ= X 1 n n 2 Xk − X k=1 2 normala N (µ.38) Sa xam σ = 1 si sa consideram nivelul de semnicatie este α = 0. probabilitatea evenimentului An = este 1 − α = 0. (6.58 X− √ < µ < X+ √ n n Sa consideram evenimentele An .1. 2 n σ X + z1− α √ 2 n . 6. σ) este o caracteristica a unei populatii statistice. 2 Asadar. p) Poisson B(λ) exponentiala exp(λ) Gamma Γ(a. n o selectie repetata efectuata asupra lui X si X media de selectie.01.6.

39) .58 X− √ < µ < X+ √ n n sa aiba loc pentru orice n ∈ N∗ este 0.Teoria estimaµiei (Teorema 2.10). =P n=1 m≥n Pe de alta parte. (6. adica: ∞ P n=1 An = 0. probabilitatea ca inegalitatea 2.58 2. obtinem ca 145  P lim sup An n→∞ ∞  Am  = 1.

θ) ∂ = ∂θ ∂θ Ecuatia ∂ ln L(x. metoda momentelor sau metoda verosimilitatii maxime). θ θ ∂ ln L(x. la alegere. Functia de verosimilitate este: n Metoda verosimilitatii maxime: n L(x.10 Exercitii rezolvate Exerciµiu 6. θ) n |θ=θ = − 2 < 0. Este estimatorul deplasat? √ (i) (a) Metoda momentelor: Deoarece avem doar un parametru. anume θ . θ θ −n ln θ − 1 x θ =− n n + 2 x. metoda momentelor revine la: X = E(X). x Asadar. (ii) Calculati media si dispersia estimatorului. θ) =  1 −x  e θ . X este: E(X) = R x f (x) dx = 1 θ ∞ 0 x e− θ dx = − 0 x ∞ x e− θ x ∞ dx = 0 e− θ dx = θ. x > 0. (Xk )k − variabilele aleatoare de selectie).  θ   0. (i) Gasiti un estimator pentru parametrul necunoscut θ > 0 (folosind.146 6.35 Se considera caracteristica X ce are densitatea de repartitie f (x. θ) ∂θ = 0 implica ˆ 1 θ= n n xk = x. media v. (unde. estimatorul pentru θ este n ˆ θ=X= k=1 Xk . k=1 Se verica apoi ca ∂ 2 ln L(x.a. Dar. θ) = k=1 1 − xk e θ θ 1 − xk θ 1 1 k=1 = ne = n e−n x/θ . x ≤ 0. ˆ 2 ∂θ x .

σ 2 ). 0. de incredere pt dispersie: (S1. 3. Presupunem ca X ∼ N (m.32). 3.98. cu valorile de selectie 4. Comanda . 4. cu nivelul de semnicatie α = 0.05. s1 = sqrt(S1). θ este punct de maxim si X este estimator de verosimilitate maxima pentru θ . (i) Sa se determine un interval de incredere pentru σ 2 si unul pentru σ . S1 = (n-1)*s2/h1.01.99. 3. D2 (X) = θ2 . h1 = icdf('chi2'.20. fprintf('int. 4.s2) = ( 0.3f)\n'.%6. θ Fie X o caracteristica ce reprezinta timpul de producere a unei reactii chimice. de unde E(X) = θ.20].92. 3.alpha/2.3f)'. n = 11.229) Putem verica rezultatele folosind functia Matlab normfit. folosim formula (6.091. 3. 4. 4.05.03. fprintf(' int.85. 4. 3.3f.92. 3. S2 = (n-1)*s2/h2. 4.s2). cu nivelul de semnicatie α = 0. alpha = 0. 4.S1.%6.S2) = ( 0. h2 = icdf('chi2'. (ii) Se cunoaste timpul mediu de reactie.05.98. de incredere pt deviatia standard: (s1.89.03. 1 2 θ2 D (X) = 2 .23. Sa se determine un interval de incredere pentru σ 2 si unul pentru σ .89.s1. 4.85.23.3f. 0.  (i) Deoarece media nu este cunoscuta si nu avem alta informatie despre dispersie.05.21.s2) = (%6. Obtinem valorile: interval de incredere pt dispersie: (S1. Consideram o selectie repetata de volum n = 11. 2 n n √ Observatie: Exerciµiu 6. 3.Teoria estimaµiei 147 ˆ si astfel.n-1).21.052) interval de incredere pt deviatia standard: (s1.01. 3. ˆ D2 (θ) = D2 (X) = =⇒ estimator nedeplasat.99. (ii) Avem: ˆ E(θ) = E(X) = E(X) = θ. s2 = var(x). 3.05.008.36 X ∼ exp( 1 ). 4.1-alpha/2.S2) = (%6. s2 = sqrt(S2). µ = 4.n-1). Codul Matlab este urmatorul: x = [4. 4.S2). ma- surat in secunde.

4.3f.s2) = (%6. . Ana a de- scoperit pe ecare pagina de articol urmatoarele numere de greseli: 7 8 8 6 7 4 5 7 7 9 4 10 10 11 10 4 6 6 4 6 7 8 5 9 5 4 12 8 6 8 6 13 5 4 8 7 5 6 6 6 9 7 6 7 14 5 8 8 12 5 8 16 4 4 9 3 3 5 6 10 Sa presupunem ca numarul de greseli aparute pe ecare pagina dactilograata de Ana este o variabila aleatoare repartizata P oisson. 3.0912 0.92. alpha = 0.85.3f. La recitirea articolului.05. 4. h1 = icdf('chi2'.S2).98.048) interval de incredere pt deviatia standard: (s1.n). n = 11. 3.s2).091.20].%6.29).05. Ruland codul. 4.%6. s2 = sqrt(S2). s1 = sqrt(S1).sigmaCI]=normfit(x. 3.89.alpha/2.s2)=( 0.3f)\n'.21.37 Ana dactilograaza un articol de 60 de pagini. de incredere pt dispersie: (S1.S2) = (%6.muCI.0. 3.2290 Se observa ca valorile furnizate de aceasta functie pentru sigmaCI sunt cele gasite anterior. S2 = n*s2/h2.05) returneaza estimatiile punctuale pentru µ si σ si intervale de incredere pentru acestea: m = 4.S2)=( 0. S1 = n*s2/h1.3f)\n'.^2)/11. 0. Codul Matlab pentru calculul acestui interval este: x = [4.218) √ Exerciµiu 6.01. 4.s1.1204 sigma = 0.0327 mCI = 3. fprintf('int.S1. de incredere pt deviatia standard: (s1.03. h2 = icdf('chi2'.n).1305 sigmaCI = 0. fprintf(' int. 3.008. (1) Sa se estimeze numarul mediu de greseli facute de Ana pe ecare pagina dactilograata. 0.99.148 [m. (ii) Deoarece media µ este cunoscuta. 4. intervalul de incredere este dat de (6.1-alpha/2.sigma. obtinem rezultatele cerute: interval de incredere pt dispersie: (S1. s2 = sum((x-4).23.9451 4.

'alpha'.a. Estimam parametrul repartitiei P oisson folosind comanda mle din lema este urmatorul Matlab.9024 Asadar.1000 nCI = 5. (3) Cu ce probabilitate. % estimarea punctuala a lui n % intervalul de incredere . Probabilitatea este 280 P = P( k=1 Xk ≤ 2000) = F (2000).8130 8.0. presupunand ca ar lucra in exact aceleasi conditii si cu aceeasi indemanare. Ana va avea mai putin de 2000 de greseli pentru toata cartea?  Sa presupunem ca Y este vectorul ce are drept componente numerele din enunt. 280.nCI] = mle(Y. Daca X este variabila aleatoare ale carei valori reprezinta numarul de greseli aparute la o pagina dactilograata si X ∼ P(n). adica a unei v. sa convenim ca Ana face in medie n = 7 greseli pentru ecare pagina dactilograata.a. obtinem rezultatele: % pentru (1) n = 7. independente stochastic si identic repartizate. 280 unde F (x) este functia de repartitie pentru k=1 Xk .'exp'.'distribution'. Daca notam cu Xk . Atunci.1) N = 280*n. variabilele aleatoare ale caror valori reprezinta numarul de greseli de dactilograe facute pe ecare pagina a cartii (respectiv). Codul ce rezolva prob- [n.Teoria estimaµiei 149 (2) Sa se estimeze numarul mediu de greseli facute de Ana la dactilograerea unei carti de 280 de pagini. atunci 280 Xk ∼ P(280 · n). repartizata P(280 · n). k = 1. k=1 deoarece Xk sunt v. Ruland codul. pentru toata cartea va face in medie N = 7 · 280 = 1960 greseli. atunci E(X) = D 2 (X) = n.

pentru selectia data. D2 (X) = p(1 − p). probabilitatea de aparitie a fetei cu stema nu este neaparat 0.N) adica P ≈ 0.pCI] = mle(Y.39 Sa presupunem ca aruncam o moneda despre care nu stim daca este sau nu corecta (adica. Realizam 80 de aruncari ale acelei monede si obtinem valorile (1 inseamna ca fata cu stema a aparut. k=1 Matlab astfel: [p. Consideram variabilele de selectie repetata de volum. adica Y (mean(Y) in Matlab) sau cu dispersia empirica pentru Y .150 Probabilitatea este: P = poisscdf(2000. B(1. Fie X variabila aleatoare ce reprezinta numarul de aparitii ale fetei cu stema la aruncarea repetata a unei monede. −− n→∞ n2 xk = 0. Observaµia 6. (2) Sa se gaseasca estimatii punctuale si intervale incredere pentru p.05) . valoarea x = (2) Utilizand functiile si D 2 (X) = n p(1 − p) − − → 0.82. 0 daca nu a aparut): 0 1 0 0 1 0 1 1 0 1 0 0 1 0 1 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 1 1 0 1 0 1 1 0 1 0 1 0 1 0 0 0 1 1 0 0 1 0 1 1 0 1 1 0 0 0 1 1 0 1 0 1 1 0 1 1 1 0 0 0 1 0 1 0 (1) Sa se gaseasca un estimator absolut corect pentru p si a se studieze ecienta acestuia. deoarece E(X) = E(X) Asadar.0.  E(X) = p. Astfel.38 Deoarece E(X) = D 2 (X) = n.'distribution'.5).5125. folosind functiile mle si binofit din Matlab.'ntrials'. Un estimator absolut corect pentru medie este X .'bino'.1. inseamna ca numarul n putea  estimat in acest caz si cu media valorilor lui Y . adica var(Y) in Matlab. p). Exerciµiu 6. Notam cu p probabilitatea evenimentului ca la o singura aruncare a monedei apare stema. (1) Repartitia lui X este Bernoulli. (Xk )k=1 n .'alpha'.

3981 0. folosind comanda binofit.pCI]=binofit(sum(Y).05) cu rezultatul: p = 0.6259 sau.Teoria estimaµiei cu rezultatul: 151 p = 0.6259 √ .length(Y). [p.0.5125 pCI = 0.3981 0.5125 pCI = 0.

cantitatea de informatie creste cu descresterea lui σ . B(n. momentul de selectie centrat de ordin 2 este estimator absolut corect pentru dispersia teoretica D 2 (X).4 Sa se arate ca media de selectie X constituie un estimator absolut corect si ecient al parametrului λ din repartitia Poisson P(λ). Exerciµiu 6.5 P(λ). Aratati ca n·X este un estimator sucient pentru parametrul λ din repartitia P oisson. Aratati ca X este UMVUE in clasa tuturor estimatorilor liniari de forma 6.11 Exercitii propuse Exerciµiu 6.40. Exerciµiu 6.) . σ) este I1 (µ) = 1 . σ2 (deci.152 6.40) Daca dorim ca µ sa e estimator nedeplasat pentru µ. k=1 Avem ca n n D2 (ˆ) = E µ k=1 wk (Xk − µ) = σ2 k=1 2 wk . Exerciµiu 6.7 Aratati ca informatia Fisher I1 (µ) pentru o caracteristica N (µ. Exerciµiu 6. Aratati ca momentul de selectie centrat de ordin k este estimator absolut corect pentru µk (X). p).1 Consideram statistica n µ= ˆ k=1 wk Xk .6 Aratati ca n · (1 − X) este un estimator sucient pentru parametrul b din repartitia Bernoulli.3 Aratati ca momentul de selectie de ordin k este estimator absolut corect pentru αk (X).2 Exerciµiu 6. (6. In particular. atunci imediat obtinem ˆ n wk = 1. Exerciµiu 6.

Teoria estimaµiei 153 Estimati prin metoda verosimilitatii maxime parametrul p al unei caracteristici X ∼ Exerciµiu 6. σ). Exerciµiu 6. Exerciµiu 6.10 Exerciµiu 6.11 Estimati prin metoda momentelor parametrii unei caracteristici X ∼ N (µ.8 B(n. p). .9 Fie selectia 871 822 729 794 523 972 768 758 583 893 598 743 761 858 948 598 912 893 697 867 877 649 738 744 798 812 793 688 589 615 731 Sa se estimeze absolut corect dispersia populatiei din care provine aceasta selectie.

154 .

Testarea ipotezelor statistice este o metoda prin care se iau decizii statistice. Deniµia 7. θ) este necunoscuta. Aceste teste permit ca. θ). o ipoteza de genul X ∼ Normala. (3) Numim ipoteza parametrica o presupunere facuta asupra valorii parametrilor unei repartitii.1 Punerea problemei In acest capitol sunt incluse cateva notiuni introductive si procedee generale ce tin de decizii statistice. Dupa cum precizam in capitolul anterior. plecand de la un anumit sau anumite seturi de date culese experimental sa se poate valida anumite estimari de parametri ai unei repartitii sau chiar prezicerea formei legilor de repartitie ale caracteristicilor considerate. caz in care putem face ipoteze asupra formei sale. De exemplu. sau f (x.1 (2) O ipoteza (1) Numim ipoteza statistica o presupunere relativa la valorile parametrilor ce apar in legea de probabilitate a caracteristicii studiate sau chiar referitoare la tipul legii caracteristicii. Presupunem ca X este caracteristica studiata a unei populatii statistice. utilizand datele experimentale culese. Sa presupunem ca (xk )k=1. si ca legea sa de probabilitate este data de f (x. neparametrica este o presupunere relativa la forma functionala a lui f (x. dar nu si parametrul θ ). 155 Daca . caz in care putem face anumite ipoteze asupra acestui parametru. aceasta functie poate  specicata (adica ii cunoastem forma. unde θ ∈ Θ ⊂ Rp .Chapter 7 Vericarea ipotezelor statistice 7. n sunt datele observate relativ la caracteristica X . θ). Testele prezentate mai jos au la baza notiuni din teoria probabilitatilor.

aceasta este adevarata.02. In general. avem de-a face cu o (4) O ipoteza parametrica simpla. Cu alte cuvinte. De exemplu. . pana se gasesc dovezi care sa dovedeasca altfel". in cazul in care nu exista suciente evidente care sa sugereze contrariul. de fapt.27. O ipoteza alternativa este orice alta ipoteza admisibila cu care poate  confruntata ipoteza nula. testa o ipoteza statistica inseamna a lua una dintre deciziile: ipoteza nula se respinge ipoteza nula se admite (sau. si nu datorita faptului ca diferenta este mare. 0. pentru teste parametrice consideram θ ∈ A = A0 si spunem ca A1 . in Exemplul 6. putem presupune ca ipoteza (parametrica) nula este (H0 ) iar o ipoteza alternativa (bilaterala) poate  µ = 250 grame.156 multimea la care se presupune ca apartine parametrul necunoscut este formata dintr-un singur element. A 0 A1 = ∅ (H0 ) iar θ ∈ A0 este ipoteza nula. un rezultat se numeste semnicant din punct de vedere statistic daca este improbabil diferenta semnicativa daca exista su- ca el sa se  realizat datorita sansei. 0. (H1 ) (5) A θ ∈ A1 este ipoteza alternativa. Intre doua valori exista o ciente dovezi statistice pentru a dovedi diferenta.05 etc. avem o ipoteza parametrica compusa. In general. ipoteza nula este ceea ce doresti sa crezi.01. (H1 ) µ = 250 grame. Cel mai bun exemplu de ipoteza nula este urmatoarea: "presupus nevinovat. ipoteza nula a priori este acea ipoteza pe care o intuim a  cea mai apropiata de realitate si o pre- supunem a  adevarata. Altfel. nu sunt motive de respingere a ei) (i) (ii) (6) In Statistica. α = 0. Numim nivel de semnicatie probabilitatea de a respinge ipoteza nula cand.

. . . Probabilitatea α = P ((x1 . Se mai numeste si aceaste erori este nivelul de semnicatie. . xn ) ∈ U. θ). (x1 . xn ) ≥ c}. x2 . ceea ce implica faptul ca (H0 ) este acceptata (pana la o alta testare). . . . o submultime U ⊂ R se numeste regiune critica cu un nivel de semnicatie α ∈ (0. adica: risc de genul (I). . x2 . xn ) ∈ U | H1 admis). Probabilitatea aceaste erori este Se mai numeste si risc de genul al (II)-lea. xn ) ∈ Rn | S(x1 . x2 . β = P ((x1 . riscul de genul (I) este mai grav decat riscul de genul al (II)-lea daca vericam calitatea unui articol de imbracaminte. . x2 . . θ ∈ Θ ⊂ R si (x1 . . . . x2 . Daca putem scrie regiunea critica sub forma U = {(x1 . . . ceea ce implica faptul ca (H0 ) este respinsa (adica (H1 ) este acceptata). xn ) ∈ U | H0 admis). . • eroarea de speta a (II)-a (riscul beneciarului sau false negative) − este eroarea care se poate comite acceptand o ipoteza (in realitate) falsa. atunci valoarea c se numeste valoare critica iat S(x1 . x2 . Folosind datele observate si U determinat ca mai sus. xn ) valori de selectie de volum n. . xn ) se numeste statistica test sau criteriu. In general. Fie X o caracteristica ce are legea de probabilitate f (x. . . . xn ) ∈ U | H0 admis) = α. In urma unor astfel de decizii pot aparea doua tipuri de erori: • eroarea de speta (I) (riscul furnizorului sau false positive) − este eroarea care se poate comite respingand o ipoteza (in realitate) adevarata. putem avea doua cazuri: (i) (ii) (x1 . x2 . . xn ) ∈ U. iar riscul de genul al (II)-lea este mai grav decat riscul de genul (I) daca vericam concentratia unui medicament. . . . . . . . Matem- atic. . . x2 . x2 . Construirea unui test statistic revine la construirea unei astfel de multimi critice. . . . . . .Teoria deciziei Vom numi 157 regiune critica multimea tuturor valorilor care cauzeaza respingerea ipotezei nule. . 1) daca P ((x1 .

158

Deniµia 7.2

Vom numi

puterea unui test probabilitatea respingerii unei ipoteze false (sau, probabili-

tiatea de a nu comite eroarea de speta a II-a). Notam prin

π = 1 − β = P ((x1 , x2 , . . . , xn ) ∈ U | H0 − fals) .

(7.1)

Deniµia 7.3

Denumim

valoare P (e.n.,

P-value) probabilitatea de a obtine un rezultat cel putin la

fel de extrem ca cel observat, presupunand ca ipoteza nula este adevarata. Valoarea P este cea mai mica valoare a nivelului de semnicatie α pentru care ipoteza (H0 ) va trebui sa e respinsa, bazandu-ne pe observatiile culese. De exemplu, daca valoarea P este Pv = 0.04 atunci, bazandu-ne pe observatiile culese, vom respinge ipoteza (H0 ) la un nivel de semnicatie α = 0.05 sau α = 0.1, dar nu o putem respinge la un nivel de semnicatie α = 0.02. Mai multe valori P pot  obtinute pentru un test statistic. Asadar, decizia poate  facuta prin observarea valorii P : daca aceasta este mai mica decat nivelul de semnicatie α, atunci ipoteza nula este respinsa, iar daca P −value este mai mare decat α, atunci ipoteza nula nu poate  respinsa. Cu cat valoarea P este mai mica, cu atat mai semnicativ este rezultatul testului.

Exerciµiu 7.4

Un exemplu simplu de test este testul de sarcina. Acest test este, de fapt, o procedura

statistica ce ne da dreptul sa decidem daca exista sau nu suciente evidente sa concluzionam ca o sarcina este prezenta. Ipoteza nula ar  lipsa sarcinii. Majoritatea oamenilor in acest caz vor cadea de acord cum ca un

false negative este mai grav decat un false positive.

Exerciµiu 7.5

Sa presupunem ca suntem intr-o sala de judecata si ca judecatorul trebuie sa decida

daca un inculpat este sau nu vinovat. Are astfel de testat urmatoarele ipoteze:

   (H0 )   (H1 )

inculpatul este nevinovat; inculpatul este vinovat.

Posibilele stari (asupra carora nu avem control) sunt: [1] [2]
inculpatul este nevinovat (H0 este adevarata si H1 este falsa); inculpatul este vinovat (H0 este falsa si H1 este adevarata)

Teoria deciziei

159

Deciziile posibile (asupra carora avem control − putem lua o decizie corecta sau una falsa) sunt: [i] H0 [ii] H0
se respinge (dovezi suciente pentru a incrimina inculpatul); nu se respinge (dovezi insuciente pentru a incrimina inculpatul);

In realitate, avem urmatoarele posibilitati, sumarizate in tabelul 7.1:

Situatie reala Decizii Respinge H0 Accepta H0

H0 - adevarata
[1]&[i] [1]&[ii]

H0 - falsa
[2]&[i] [2]&[ii]

Table 7.1: Posibilitati decizionale.

Traducerile in romaneste ale acestora se gasesc in tabelul 7.2.

Situatie reala Decizii Respinge H0 Accepta H0

H0 - adevarata
inchide o persoana nevinovata elibereaza o persoana nevinovata

H0 - falsa
inchide o persoana vinovata elibereaza o persoana vinovata

Table 7.2: Decizii posibile.

Erorile posibile ce pot aparea sunt cele din tabelul 7.3.

160

Situatie reala Decizii Respinge H0 Accepta H0

H0 - adevarata α
judecata corecta

H0 - falsa
judecata corecta

β

Table 7.3: Erori decizionale.

7.2 Tipuri de teste statistice
Tipul unui test statistic este determinat de ipoteza alternativa (H1 ). Avem astfel:

• test unilateral stanga, atunci cand ipoteza alternativa este de tipul (H1 ) : θ < θ0 ;

Figure 7.1: Regiune critica pentru test unilateral stanga.

• test bilateral, atunci cand ipoteza alternativa este de tipul (H1 ) : θ = θ0 ; • test unilateral dreapta, atunci cand ipoteza alternativa este de tipul (H1 ) : θ > θ0 ;

Asadar, pentru a construi un test statistic vom avea nevoi de o regiune critica. Pentru a construi aceasta regiune critica vom utiliza metoda intervalelor de incredere. Daca valoarea observata se aa in regiunea critica (adica in afara intervalului de incredere), atunci respingem ipoteza nula.

Teoria deciziei

161

Figure 7.2: Regiune critica pentru test bilateral.

Figure 7.3: Regiune critica pentru test unilateral dreapta.

7.3 Etapele unei testari parametrice
• Colectam o selectie intamplatoare x1 , x2 , . . . , xn . Fie (X1 , X2 , . . . , Xn ) variabile aleatoare de
selectie;

• Alegem o statistica (criteriu) S(X1 , X2 , . . . , Xn ) care, dupa acceptarea ipotezei (H0 ), aceasta
are o repartitie cunoscuta, independenta de parametrul testat;

• Alegem un prag de semnicatie 1 − α ≈ 1; • Gasim regiunea critica U , care este complementara intervalului de incredere;

4 Testul cel mai puternic Sa presupunem ca X este caracteristica unei colectivitati statistice ce urmeaza o lege de probabilitate f (x. Daca S0 ∈ U . cu probabilitatea de risc α.162 • Calculam valoarea statisticii S(X1 .7 Nu intotdeauna exista un cel mai puternic test. . si avem de testat ipoteza nula (H0 ) vs. nu se poate construi un astfel de criteriu. (adica. . Notam aceasta valoare cu S0 . cel mai puternit test este cel pentru care puterea testului este maxima). daca sunt indeplinite urmatoarele conditii: (a) (b) P ((x1 . ipoteza alternativa (H1 ). • Luam decizia:   Daca S0 ∈ U . 7. . se admite (mai bine zis. . πU ∗ ≥ πU . Deniµia 7. (H0 ). atunci ipoteza nula.6 Se spune ca testul bazat pe regiunea critica U ∗ este cel mai puternic test in raport cu toate testele bazate pe regiunea critica U . Observaµia 7. x2 . θ). .8 (Neyman-Pearson) Presupunem ca avem de testat ipoteza nula (H0 ) de mai sus. . . la nivelul de semnicatie α. vs. nu avem motive sa o respingem si o admitem pana la efectuarea eventuala a unui test mai puternic). se respinge. Xn ) pentru selectia considerata. X2 . . Lema Neyman-Pearson ne confera un cel mai bun test. Lema 7. . atunci ipoteza nula. In cazul general. (H0 ). xn ) ∈ U ∗ | (H0 ) se admite) = α. Regiunea U ∗ se numeste regiunea critica cea mai buna. dintre toate testele de nivel de semnicatie α xat. In cazul ipotezelor simple. ipoteza alternativa (H1 ) : θ = θ1 .

5 Testarea tipului de date din observatii Pentru a putea efectua un test statistic in mod corect. . vom respinge ipoteza (H0 ) daca i=1 (xi − µ)2 este sucient de mare. then S(x) este o functie crescatoare de n i=1 (xi − µ)2 . De asemenea. θ) = L(x1 . n L(x. Exerciµiu 7. . x2 . n 1 L(x1 .9 Fie x1 . cel mai puternit test este bazat pe o regiune ce depinde de n i=1 (xi − µ)2 . . observam ca daca σ1 > σ0 . xn . . xn valori de selectie pentru o caracteristica X ∼ N (µ. . xn . Asadar. . θ1 ) . θ) functia de verosimilitate si e S(x) = L(x. . σ1 ) S(x) = = L(x. este cea mai buna regiune critica la nivelul de semnicatie α. . θ0 ) Atunci regiunea U denita prin U = {x ∈ Rn | S(x) ≥ c}.. σ) = n e n (2π) 2 σ Calculand S(x). σ). 7. . datele . x2 . . Notam cu L(x. cu c astfel incat P (x ∈ U | (H0 ) − adevarata) = α. . .g.Teoria deciziei 163 la nivelul de semnicatie α. este necesar sa stim care este tipul (tipurile) de date pe care le avem la dispoziti. obtinem: − 1 2σ 2 (xk − µ)2 k=1 . Dorim sa testam ipoteza nula: (H0 ) : versus ipoteza alternativa simpla σ = σ0 (H1 ) : Functia de verosimilitate asociata selectiei este: σ = σ1 . L(x. n Utilizand Lema Neyman-Pearson. Pentru anumite teste statistice (e. unde µ este cunoscut. x2 . σ0 ) σ0 σ1 n −1 2 e 1 1 2 − σ2 σ1 0 (xk − µ)2 k=1 . testul Z sau testul t.

Functia normplot(X) reprezinta grac datele din vectorul X versus o repartitie normala. pe cand al doilea nu este.200. atunci acest grac va  liniar. sa reprezentem cu normplot vectorii X si Y de mai jos. se pune problema realizarii unei legaturi intre functia de repartitia empirica si cea teoretica (teste de concordanta). De aceea. In Matlab sunt deja implementate unele functii ce testeaza daca datele sunt normal repartizate. De multe ori. Vom discuta mai pe larg aceste teste de concordanta in sectiunea 7.200. daca nu.1).164 testate trebuie sa e normal distribuite si independente. Putem astfel sa concluzionam ca datele date de X sunt normal repartizate (fapt conrmat si de modul cum le-am generat).2. normplot(X) Y = exprnd(5.2. Functia chi2gof determina in urma unui test χ2 daca datele observate sunt normal repartizate. Gracele sunt cele din Figura 7. Observam ca primul grac este aproape liniar.4: Reprezentarea normala a datelor. De exemplu.4. la un .2. chiar si ipoteza ca datele sa e normal repartizate trebuie vericata. Scopul acestei functii este de a determina grac daca datele din observate sunt normal distribuite.1).1).7. subplot(1. atunci va  un grac curbat. iar datele din Y nu sunt normal repartizate. Daca aceste date sunt selectate dintr-o repartitie normala.2). normplot(Y) Figure 7. X = normrnd(100. subplot(1.

1).3) −z1− α . σ) cu µ necunoscut si σ > 0 cunoscut. xn . comanda 165 h = chi2gof(x) ne va furniza rezultatul h = 1. Denim regiunea critica pentru ipoteza nula (relativ la valorile statisticii Z ) ca ind acea regiune care . . Cautam un interval (z1 . respectiv.23). √ n (7. adica: (7. Gasim ca acest interval este intervalul de incredere obtinut in Sectiunea 6. 2 z1− α . Pentru a efectua acest test.6. obtinem h = 0. Presupunem ca avem deja culese datele de selectie (observatiile) asupra lui X : x1 . . . (conform Propozitiei 5. 7. Astfel. z2 ) astfel incat P (z1 < Z < z2 ) = 1 − α.05. daca datele nu sunt normal repartizate.6 Teste parametrice 7.Teoria deciziei nivel de semnicatie α = 0. 1). x2 . consideram statistica (vezi 6.1) Z= X −µ σ . cu probabilitatea de risc α.2) Daca ipoteza (H0 ) se admite. 2 unde zα este cuantila de ordin α pentru repartitia N (0. Aplicand testul pentru X si Y de mai sus. h = 1.1 Testul Z pentru o selecµie Testul Z bilateral Fie caracteristica X ce urmeaza legea normala N (µ. Dorim sa vericam ipoteza nula (H0 ) : vs.6. daca nu putem respinge ipoteza ca datele observate sunt normal distribuite. ipoteza alternativa µ = µ0 (H1 ) : µ = µ0 .1. sau h = 0. atunci Z ∼ N (0.6. .

(echivalent. 2 z0 = (4) Daca: x − µ0 σ √ n .4) uk . 1 unde u = n n z ∈ −z1− α . |z| > z1− α }. Determinam valoarea z1− α astfel incat 2 Φ z1− α 2 (3) Calculez valoarea = z1− α . Astfel. Este de asteptat ca regiunea critica sa e complementara acestui interval. . 2 Testul Z unilateral . 1 − α. α. µ0 . σ. z1− α . xn }. 2 (ii) |z0 | ≥ z1− α . atunci respingem (H0 ) (exista suciente 2 Etapele testul Z bilateral (1) (2) Se dau: {x1 . U este acea regiune in care: k=1 σ X > µ0 + z1− α √ 2 n si σ X < µ0 − z1− α √ . Decizia nala se face astfel: • daca z0 ∈ −z1− α . atunci (H0 ) este admisa (nu poate  respinsa). • daca z0 ∈ −z1− α . z0 ∈ U ). adica U = z ∈ R. . x2 . . (echivalent. 2 (7. atunci (H0 ) este respinsa (adica (H1 ) este admisa). (i) |z0 | < z1− α . 2 dovezi sa o respingem). 2 n Notam cu z0 valoarea statisticii Z pentru observatia considerata. z0 ∈ U ). . z1− α 2 2 = {z. atunci admitem (H0 ) (pentru ca nu sunt 2 suciente dovezi sa o respingem). 2 z1− α . Stim ca un interval de incredere pentru µ va contine valoarea reala µ0 cu o probabilitate destul de mare.166 respinge ipoteza (H0 ) daca media µ apartine acelui interval.

In mod similar.10 Testul Z . atunci alegem regiunea critica: U = (−z1−α . ipoteza alternativa (H1 )s . dorim sa vericam ipoteza nula 167 (H0 ) : vs. +∞). x − µ0 σ √ n Observaµia 7. bilateral sau unilateral. ipoteza alternativa µ = µ0 (H1 )s : sau ipoteza alternativa µ < µ0 .1). adica: U = (−∞. atunci respingem (H0 ). daca ne aam. daca avem ipoteza alternativa (H1 )d . avem nevoie de denirea unor regiuni critice corespunzatoare. daca volumul selectiei observate este n ≥ 30. z1−α ). atunci respingem ipoteza nula la pragul de semnicatie α) este o regiune in care realizarea ipotezei alternative este favorizata. Intr-adevar. o regiune critica pentru ipoteza nula (ceea ce semnica o regiune in care.5) P (z ∈ U) = P (−∞ < Z < z1−α ) = Φ(z1−α ) = 1 − α. ∈ U . . Daca ipoteza nula este vericata vs. atunci admitem (H0 ).6. testarea este (in ambele cazuri): (7. atunci regiunea critica va  regiunea acelor posibile valori ale statisticii Z pentru care (H1 )s se realizeaza cu probabilitatea 1 − α ≈ 1.6) • daca z0 = • daca z0 = x − µ0 σ √ n ∈ U . La fel ca mai sus. Cu alte cuvinte. se observa cu usurinta ca: (7. (unilateral stanga) (H1 )d : cu probabilitatea de risc α. Acestea vor  chiar intervalele de incredere pentru conditiile din ipotezele alternative (obtinute in Sectiunea 6. µ > µ0 . poate  aplicat cu succes si pentru populatii non-normale.Teoria deciziei In conditiile din sectiunea anterioara. (unilateral dreapta) Pentru a realiza testele.

Regiunea critica pentru ipoteza nula. atunci (vezi (6. . . 2 . . Z= (X1 − X2 ) − (µ1 − µ2 ) 2 σ1 σ2 + 2 n1 n2 .8) (u1 − u2 ) 2 σ1 n1 + 2 σ2 n2 . N (µ1 . z ∈ −z1− α . (X2j )j=1. . (7. Dorim sa testam ipoteza nula ca mediile sunt egale (H0 ) : vs. x1 2 . . respectiv. . z1− α 2 2 . . .28). x2 2 . 2 Φ z1− α 2 = z1− α . atunci admitem (H0 ). .27)): Z ∼ N (0. alegem statistica µ1 = µ2 . α.6. x2 2 . {x2 1 . . Determinam valoarea z1− α astfel incat.2 Testul Z pentru dou  selecµii Fie X1 si X2 caracteristicile (independente) a doua populatii normale. pentru care nu se cunosc mediile teoretice. exprimata in valori ale statisticii Z este: U = z. (7. Etapele testul Z pentru doua selecµii (1) (2) Se dau: {x1 1 . x1 n1 }. N (µ2 . . functia lui Laplace. n1 .7) Daca (H0 ) este admisa (adica admitem ca µ1 = µ2 ).168 7. Alegem din prima populatie o selectie repetata de volum n1 . µ0 . x1 n1 }. atunci respingem (H0 ). . • Daca valoarea statisticii Z pentru selectiile date nu se aa in U . 1). . . Fixam pragul de semnicatie α. Fie z = (conform Propozitiei 5. ce urmeaza repartitia lui X1 . . x2 = {x2 1 . ipoteza alternativa µ1 = µ2 (H1 ) : Pentru a testa aceasta ipoteza. ce urmeaza repartitia lui X2 . x2 n2 }. Fie (X1i )i=1. . σ2 ). σ1 ). x1 = {x1 1 . iar din a doua populatie alegem o selectie repetata de volum n2 . • Daca valoarea statisticii Z pentru selectiile date se aa in U . n2 variabilele aleatoare de selectie corespunzatoare ecarei selectii. x2 n2 }. x1 2 .

• sigma este deviatia standard teoretica a lui X .5. 2 (ii) |z0 | ≥ z1− α . (2) Regiunile critice pentru testele unilaterale sunt prezentate in tabelul 7. valoarea testata. la nivelul de semnicatie α. Daca X este matrice. prezentat mai jos. de-alungul ecarei coloane a lui X. atunci utilizam testul t pentru doua selectii.alpha. atunci µ1 = µ2 . • alpha este nivelul de semnicatie. a priori cunoscuta.sigma. (4) Daca: (i) |z0 | < z1− α . atunci ipoteza nula se respinge. 7. .6. • p este valoarea P (P − value). continand observatiile culese.3 Testul Z in Matlab Matlab utilizand comanda Testul Z pentru o selectie poate  simulat in [h.Teoria deciziei (3) Calculez valoarea 169 z0 = x1 − x2 2 σ1 n1 + 2 σ2 n2 . p. se admite. ci. atunci ipoteza nula nu poate  respinsa pe baza observatiilor facute (adica. zval] = ztest(X. • zval este valoarea statisticii Z pentru observatia considerata. • X este un vector sau o matrice. atunci mai multe teste Z sunt efectuate. atunci µ1 = µ2 .tail) unde: • h este rezultatul testului. σ2 sunt necunoscute.m0. • ci este un interval de incredere pentru µ. • m0 = µ0 . 2 Observaµia 7. pana la un test mai puternic). Daca h = 1.11 (1) In cazul in care σ1 . daca h = 0.

comanda h = ztest(X.6.9) Daca ipoteza (H0 ) se admite (adica µ ia valoarea µ0 ). (7.  'left'. Observaµia 7. Pentru a efectua acest test. (conform Propozitiei 5. Vrem sa vericam ipoteza nula (H0 ) : vs.4 Testul t pentru o selecµie Fie caracteristica X ce urmeaza legea normala N (µ. pentru un test unilateral dreapta (µ > µ0 ). xn .38). atunci T ∼ t(n − 1). se subantelege implicit). ipoteza alternativa µ = µ0 (H1 ) : µ = µ0 .  'right'.tail) ne va furniza doar rezultatul testului. pentru un test bilateral (poate sa nu e specicata. t2 ) astfel incat P (t1 < T < t2 ) = 1 − α.alpha. σ) cu µ necunoscut si σ > 0 necunoscut.1) T = X −µ . . fara a asa alte variabile.6.12 (1) Pentru efectuarea testului. Putem asa doar 3. . 2. cu probabilitatea de risc α. De exemplu. . dar doar in ordinea precizata. (2) Nu exista o functie in Matlab care sa efectueze testul Z pentru doua selectii.m0. d∗ (X) √ n (7. . pentru un test unilateral stanga (µ < µ0 ).10) . consideram statistica (vezi 6.170 • tail poate  unul dintre urmatoarele siruri de caractere:  'both'.sigma. Cautam un interval (t1 . 7. nu este neaparat necesar sa asam toate cele 4 variabile din membrul stang. Consideram datele de selectie (observatiile) asupra lui X : x1 . sau o variabila. dupa preferinte. x2 .

k=1 (4) Daca: (i) |t0 | < t1− α . atunci respingem (H0 ). n reprezinta cuantila de ordin α pentru repartitia t(n). n−1 . ipoteza alternativa µ = µ0 (H1 )s : µ < µ0 . Regiunea critica este complementara intervalului de incredere. Determinam valoarea t1− α . t0 ∈ U ).6. 2 µ0 . xn }. aici.2. n−1 . adica: 171 −t1− α . . 2 2 ∈ −t1− α . n−1 . n−1 = t1− α . . n−1 . n−1 . (unilateral stanga) . dorim sa vericam ipoteza nula (H0 ) : vs. t1− α . Decizia: • daca t0 = x − µ0 d∗ (X) √ n ∈ −t1− α . 2 2 • daca t0 = x − µ0 d∗ (X) √ n Etapele testul t bilateral (1) (2) Se dau: {x1 .Teoria deciziei si gasim ca acest interval este intervalul de incredere obtinut in Sectiunea 6. atunci (H0 ) este respinsa (adica (H1 ) este admisa). t1− α . n−1 (echivalent. 2 (ii) |t0 | ≥ t1− α . n−1 astfel incat functia de repartitie pentru t(n − 1). 2 2 unde tα. α. n−1 . x2 . atunci admitem (H0 ). 2 2 (3) Calculez valoarea t0 = x − µ0 d∗ (X) √ n . . 2 Testul t unilateral In conditiile de mai sus. n−1 (echivalent. Fn−1 t1− α . atunci (H0 ) este admisa (nu poate  respinsa). n−1 . d∗ (X) = 1 n−1 n (xi − x)2 . t1− α . . t0 ∈ U ).

n−1 2 t1− α .12) • daca t0 = x − µ0 d∗ (X) √ n ∈ U . . (unilateral dreapta) Pentru a realiza testele. atunci respingem (H0 ). avem nevoie de regiuni critice corespunzatoare. +∞) −∞. • daca t0 = x − µ0 d∗ (X) √ n ∈ U . adica este acel interval ce contine doar valori ale statisticii T ce vor duce la respingerea ipotezei nule si acceptarea ipotezei altrnative. z1−α ) (−z1−α . n−1 ). atunci admitem (H0 ). n−1 . −z1− α 2 z1− α .4: Teste pentru valoarea medie a unei colectivitati. Daca alegem ipoteza alternativa (H1 )d . daca alegem ipoteza alternativa (H1 )s . n−1 . +∞). +∞) Table 7. µ > µ0 . n−1 ) (−t1−α. +∞ 2 (−∞. t1−α. atunci regiunea critica pentru ipoteza nula va : (7. La fel ca mai sus. adica intervalul: U = (−∞. atunci regiunea critica pentru ipoteza nula va  multimea valorilor favorabile realizarii ipotezei alternative (H1 )s . Regiunea critica pentru ipoteza nula va trebui sa e multimea valorilor favorabile realizarii ipotezei alternative. Asadar. +∞ 2 σ necunoscut µ = µ0 µ < µ0 µ > µ0 (−∞.11) U = (tα. testarea este (in ambele cazuri): (7. t1−α. n−1 . −t1− α .172 sau ipoteza alternativa (H1 )d : cu probabilitatea de risc α. Alti parametri (H0 ) : (H1 ) µ = µ0 Regiunea critica Tipul testului Testul Z bilateral Testul Z unilateral stanga Testul Z unilateral dreapta Testul t bilateral Testul t unilateral stanga Testul t unilateral dreapta σ cunoscut µ = µ0 µ < µ0 µ > µ0 −∞.

Determinam valoarea t1− α . Sa presupunem ca σ1 = σ2 sunt necunoscute. . σ1 ). x1 n1 }. x1 2 . iar din a doua populatie alegem o selectie repetata de volum n2 . n1 . . N = t1− α . N . Regiunea critica este complementara intervalului de incredere pentru diferenta mediilor. . respectiv. .14) cu N ca in relatia (6. x2 2 . ce urmeaza repartitia lui X2 . N (µ1 . x2 2 . x1 n1 }. . µ0 . atunci (vezi relatia (6. α. x2 = {x2 1 . {x2 1 . N (µ2 . . adica: U = R \ −t1− α . . Fixam pragul de semnicatie α. N astfel incat functia de repartitie pentru t(N ). x1 = {x1 1 . (7. (X2j )j=1. σ2 ). N . Pentru a testa aceasta ipoteza. alegem statistica T = (X1 − X2 ) − (µ1 − µ2 ) d2 d2 ∗1 + ∗2 n1 n2 . 2 2 Etapele testul t pentru dou  selecµii (1) (2) Se dau: {x1 1 . . (7. . . 2 FN t1− α . x1 2 . n2 variabilele aleatoare de selectie corespunzatoare ecarei selectii.28). 2 2 (3) Calculez valoarea t0 = x1 − x2 d2 ∗1 n1 + d2 ∗2 n2 . . t1− α .5 Testul t pentru dou  selecµii Fie X1 si X2 caracteristicile (independente) a doua populatii normale. Dorim sa testam ipoteza nula ca mediile sunt egale (H0 ) : vs. . Alegem din prima populatie o selectie repetata de volum n1 .13) Daca (H0 ) este admisa (adica admitem ca µ1 = µ2 ). x2 n2 }. ce urmeaza repartitia lui X1 . . pentru care nu se cunosc mediile teoretice.27)): T ∼ t(N ). .6. . x2 n2 }. N . . ipoteza alternativa µ1 = µ2 (H1 ) : µ1 = µ 2 . .Teoria deciziei 173 7. Fie (X1i )i=1.

N . p. N X1 − X2 > −t1−α. 2 Observaµia 7. p. urmeaza repartitia N (µ. σ 2 cunoscute µ1 = µ2 µ1 < µ2 µ1 > µ2 |X1 − X2 | > z1− α 2 X1 − X2 < z1−α X1 − X2 > −z1−α |X1 − X2 | > t1− α .6. cu diferenta ca statistica ce se considera este data de (6. (2) In cazul in care dispersiile sunt cunoscute. 7. atunci se utilizeaza testul Z pentru diferenta mediilor. care urmeaza pasii testului t pentru diferenta mediilor.26). dupa acceptarea ipotezei nule. ci. atunci utilizam statistica data de (6. N 2 σ1 n1 2 σ1 n1 + + 2 σ2 n2 Testul Z bilateral Testul Z unilateral stanga Testul Z unilateral dreapta Testul t bilateral Testul t unilateral stanga Testul t unilateral dreapta 2 σ2 n2 2 σ2 n2 2 σ1 n1 + σ1 = σ2 necunoscute µ1 = µ2 µ1 < µ2 µ1 > µ2 d2 (X1 ) ∗ n1 d2 (X1 ) ∗ n1 + d2 (X2 ) ∗ n2 + d2 (X2 ) ∗ n2 d2 (X2 ) ∗ n2 d2 (X1 ) ∗ n1 + Table 7.alpha. tail sunt la fel ca in functia ztest (Sectiunea 7. σ).174 (4) Daca: (i) |t0 | < t1− α .6.tail) unde: • h. N . m0.25) care. N 2 X1 − X2 < t1−α.3). 2 (ii) |t0 | ≥ t1− α .5: Teste pentru egalitatea a doua medii. stats] = ttest(X.m0. alpha. • variabila stats inmagazineaza urmatoarele date: . atunci µ1 = µ2 .6 Testul t in Matlab Matlab utilizand comanda generala Pentru o selecµie Testul t poate  simulat in [h. cu ajutorul careia construim regiunea critica si apoi decidem care ipoteza se respinge. atunci µ1 = µ2 .13 (1) In cazul in care σ1 = σ2 si necunoscute. Alti parametri (H0 ) : (H1 ) µ1 = µ2 Regiunea critica Tipul testului σ1 . ci.

zarul este m sluit. de unde E(X) = D 2 (X) = 0.14 Dorim sa testam daca o anumita moneda este corecta.este valoarea statisticii T  df . ni se da o selectie de volum n = 100 si scriem observatiile facute intr-un vector x ce contine 59 de valori 1 si 41 de valori 0. Sa spunem ca X = 1. Daca ipoteza (H0 ) se admite.5. .8207. putem utiliza testul t pentru o selectie. . Pe baza acestei experiente.  sd . si statistica T ∼ t(n − 1).5. Exerciµiu 7. Daca {X1 . X2 .5). Deoarece n = 100 > 30. daca apare fata cu banul. daca apare fata cu stema si X = 0.05.numarul gradelor de libertate ale testului. µ = 0. Aruncam moneda in caza de 100 de ori si obtinem fata cu stema de exact 59 de ori. . Xn } sunt variabilele aleatoare de selectie. . Prin ipoteza.deviatia standard de selectie. adica sansele ecarei fete de a apare la orice aruncare sunt 50% − 50%.5 µ = 0. atunci µ este xat. cautam sa testam ipoteza nula zarul este corect (H0 ) : vs. X ∼ B(1.Teoria deciziei 175 pentru observatia considerata.  Fie X variabila aleatoare ce reprezinta fata ce apare la o singura aruncare a monedei. atunci alegem statistica T = X −µ d∗ (X) √ n . Teoretic. 0. . Valoarea acestei statistici pentru selectia data este: t0 = x−µ d∗ (X) √ n = 1.5. Rescriem ipotezele (H0 ) si (H1 ) astfel: (H0 ) : (H1 ) : µ = 0.  tstat . ipoteza alternativa (H1 ) : la un prag de semnicatie α = 0.

99 = 1. stats] = ttest(X.'both') si obtinem h = 0 p = 0.9842.mu)/(std(x)/sqrt(n)). deducem ca la un prag de semnicatie α = 0. t0 = (mean(x) . n-1). atunci ipoteza nula ar  respinsa.6881 stats = tstat: 1. n−1 = t0. obtinem rezultatul: moneda este corecta In loc sa folosim codul de mai sus.05. zeros(41. ipoteza nula ar  fost respinsa.975. x = [ones(59.1)].0. dupa cum urmeaza: [h. ci.4943 Observaµia 7.05. alpha = 0.0717. si decidem ca ipoteza (H0 ) este admisa 2 2 (nu poate  respinsa la nivelul de semnicatie α). if (abs(t0) < tc) disp('moneda este corecta') else disp('moneda este masluita') end % cuantila Ruland codul. tc = tinv(1-alpha/2.4919 0.15 (1) Deoarece P −valoarea este p = 0. Pentru dou  selecµii . (2) Daca dintre cele 100 de observari aveam o aparitie in plus a stemei. p. rezulta ca |t0 | < t1− α .08.1).0717 ci = 0.176 Din t1− α . Codul Matlab pentru calculul analitic de mai sus este urmatorul: n=100.5.8207 df: 99 sd: 0. mu = 0. am putea folosi functia ttest din Matlab. adica moneda ar  catalogata masluita. n−1 .0.5.

σ2 ). Am gasit urmatoarele distributii de frecvente ale notelor: Frecventa absoluta Grupa M F 08 Grupa M F 09 Nota obtinuta 5 6 7 8 9 10 3 4 9 7 2 0 Table 7.6. (ii) Sa se testeze (cu α = 0. necunoscute a priori. p. p. • X si Y sunt vectori sau o matrice. de-alungul ecarei coloane. alpha si tail sunt la fel ca in Sectiunea 7. ci] = ttest2(X.alpha. atunci mai multe teste Z sunt efectuate. Presupunem ca X1 ∼ N (µ1 . (ii) Gasiti un interval de incredere pentru diferenta mediilor. selectam aleator notele a 25 de studenti din prima grupa si 30 de note din a doua grupa. 5 6 8 6 3 2 (i) Vericati daca ambele seturi de date provin dintr-o repartitie normala. M F 09 la examenul de Statistica Aplicata.16 Caracteristicile X1 si X2 reprezinta notele obtinute de studentii de la Master M F 08.01) ipoteza nula (H0 ) : µ1 = µ2 .3. Daca ele sunt matrice. Pentru a verica modul cum s-au prezentat studentii la acest examen in doi ani consecutivi. ci.05. studentii sunt la fel de buni) . continand observatiile culese. (in medie. respectiv. Exerciµiu 7. cu σ1 = σ2 . σ1 ) si X2 ∼ N (µ2 . la nivelul de semnicatie α = 0.tail) unde • h.6: Tabel cu note.Y. Conducerea universitatii recomanda ca aceste note sa urmeze repartitia normala si examinatorul se conformeaza dorintei de sus.Teoria deciziei Testul t pentru egalitatea a doua medii poate  simulat in 177 Matlab utilizand comanda [h.

N 2 d2 ∗1 n1 + d2 ∗2 n2 . x1 − x2 + t1− α .stats] = ttest2(u. m1 = mean(u)-mean(v)-t*sqrt(d1/n1+d2/n2). alpha = 0.1).7455. N 2 d2 ∗1 n1 + d2  ∗2 n2  Codul Matlab: n1=25.p.%6. (iii) [h.3234 √ .8*ones(6.0. m2 = mean(u)-mean(v)+t*sqrt(d1/n1+d2/n2). obtinem: h = 0 p = 0.178 versus ipoteza alternativa (H1 ) : µ1 < µ2 .1)].v.9*ones(2.3f. se calculeaza intervalul de incredere (vezi Tabelul 6. t = tinv(1-alpha/2.1)  x1 − x2 − t1− α .ci. studentii au note din ce in ce mai mari)  (ii) (i) h = chi2gof(u). (in medie.m2).8*ones(7.N).1).6*ones(4.1).1).7*ones(9.8864 Inf stats = tstat: -0.7*ones(8.'both') si este: (-0.6922) Altfel. k = chi2gof(v).01.m1.stats]=ttest2(u.10*ones(2.5295 ci = -0. d2 = var(v).v.6*ones(6.05.1).0. Un interval de incredere la acest nivel de semnicatie se obtine apeland functia Matlab [h.1)] v = [5*ones(5. u = [5*ones(3. d1 = var(u). n2=30.3f)\n'.1).'right') In urma rularii codului. 0.1).1).9*ones(3.m2)=(%6.05. N = (d1/n1+d2/n2)^2/((d1/n1)^2/(n1-1)+(d2/n2)^2/(n2-1))-2.0744 df: 53 sd: 1.ci. fprintf('(m1.p.1).

e. xn . n−1 . 0 1− 2 2 Observaµia 7. (conform Propozitiei (5. 2 σ 2 = σ0 (H0 ) : (H1 ) µ necunoscut 2 σ 2 = σ0 2 σ 2 < σ0 2 σ 2 > σ0 2 Regiunea critica Tipul testului Testul χ2 bilateral Testul χ2 unilateral stanga Testul χ2 unilateral dreapta −∞. σ 2 = σ0 ).. α. n−1 .5) χ2 = n−1 2 d (X). atunci respingem (H0 ) (i. σ2 ∗ (7.6. χ2 n−1 . Intervalului de incredere pentru σ 2 (obtinut in Sectiunea 6. χ2 α . dupa acceptarea ipotezei (H0 ) (adica σ 2 ia valoarea σ0 ). . atunci χ2 ∼ χ2 (n − 1).5) este α χ2 .7. +∞ α. Atunci.6. n−1 . atunci admitem (H0 ) (i. n−1 . 0 1− 2 2 2 α • daca χ2 ∈ χ2 . Pentru a efectua acest test. si ipotezele alternative unilaterale (H1 )s : 2 σ 2 < σ0 si (H1 )d : 2 σ 2 > σ0 . Regiunea critica U va  complementara acestui intervalul de incredere. σ 2 = σ0 ). χ2 . Regiunile critice (pe baza carora se pot face decizii) pentru acestea se gasesc in Tabelul 7. regula de decizie este urmatoarea: 0 2 α • daca χ2 ∈ χ2 .e. Vrem sa vericam ipoteza nula (H0 ) : vs. ipoteza alternativa 2 σ 2 = σ0 (H1 ) : 2 σ 2 = σ0 . . χ2 α .Teoria deciziei 179 7. σ) cu µ si σ > 0 necunoscute.6. n−1 . +∞ 1− 2 −∞. 1− 2 2 unde χ2 n−1 este cuantila de ordin α pentru repartitia χ2 (n). χ2 α . Sa notam prin χ2 valoarea statisticii χ2 pentru selectia data. cu probabilitatea de risc α. . x2 .35). n−1 α χ2 α . . χ2 n−1 1−α.15) 2 care. dupa caz. n−1 . consideram statistica (vezi Sectiunea 6.. Consideram datele de selectie (observatiile) asupra lui X : x1 .17 Se pot considera. n−1 . .7 Testul χ2 pentru dispersie Fie caracteristica X ce urmeaza legea normala N (µ.

tail) unde: • h. ci.alpha. .003. Stim ca X urmeaza legea normala N (µ. . alpha.01) ipoteza nula (H0 ) : versus ipoteza alternativa σ 2 = 0. x1 = {x1 1 . tail sunt la fel ca in functia ttest (Sectiunea 7. Alegem din prima populatie o selectie repetata de volum n1 .6. n1 . pentru care nu se cunosc mediile teoretice. m0. si obtinem distributia empirica:  2 3 5 1   10. ci.var. x2 = {x2 1 .50 10. • var este valoarea testata a dispersiei. p. . .003. N (µ1 .7: Teste pentru dispersie. iar din a doua populatie alegem o selectie repetata de volum n2 .9 Testul F pentru raportului dispersiilor Fie X1 si X2 caracteristicile (independente) a doua populatii normale. x2 n2 }.180 Table 7. N (µ2 .6. .55 10.6. Exerciµiu 7.  √ 7. ce reprezinta diametrul pieselor (in mm) produse de un strung. . x1 2 . (H1 ) : σ 2 = 0. x2 2 . x1 n1 }.6). σ2 ). σ).8 Testul χ2 in Matlab Matlab utilizand comanda Testul χ2 poate  simulat in [h. . 7. stats. ce urmeaza repartitia lui X1 .60 10.1 Se cerceteaza caracteristica X. p. Alegem o selectie de volum n = 11. Sa se testeze (cu α = 0. σ1 ).65   . respectiv. . ce urmeaza repartitia lui X2 . . Fie (X1i )i=1. stats] = vartest(X.

i. n2 − 1)).e. n1 −1. n1 −1. Regiunea critica U este complementara intervalului de incredere pentru raportul dispersiilor.. Fixam pragul de semnicatie α. (7. si ipotezele alternative unilaterale (H1 )s : 2 2 σ1 < σ2 . σ1 = σ2 ). n1 −1. f1− α . 2 si se determina a. n2 −1 . n2 −1 . atunci: 2 σ2 d2 (X1 ) ∗ . n2 −1 este cuantila de ordin α pentru repartitia Fisher F(n1 − 1. f1− α . n1 −1. σ1 = σ2 ). dupa caz. . n1 −1. n1 −1. Regiunile critice (pe baza carora se pot face decizii) pentru acestea se gasesc in Tabelul 7. n2 −1 ≤ F ≤ f1− α . 2 σ1 d2 (x2 ) ∗ • daca F0 ∈ f α . n2 −1 = 1 − 2 α . n2 −1 2 P f α . 2 2 • daca F0 ∈ f α . F = 2 2 Daca (H0 ) este admisa (adica σ1 = σ2 )..Teoria deciziei 181 (X2j )j=1. n1 −1.18 Se pot considera. n2 − 1) Intervalul de incredere pentru raportul dispersiilor este (repartitia Fisher). n2 variabilele aleatoare de selectie corespunzatoare ecarei selectii. n2 −1 . n2 −1 . Avem: F0 = Regula de decizie este: 2 σ2 d2 (x1 ) ∗ . 2 (fα. alegem statistica 2 2 σ1 = σ2 . 2 σ1 d2 (X2 ) ∗ (7. n2 −1 = 1 − α 2 2 Extremitatile intervalului se determina din relatiile Fn1 −1. atunci respingem (H0 ) (i.8.17) f α . 2 2 Observaµia 7.16) F ∼ F(n1 − 1. x1 si x2 . n1 −1. n2 −1 f α . Notam prin F0 valoarea lui F pentru observatiile date. ipoteza alternativa 2 2 σ1 = σ2 (H1 ) : Pentru a testa aceasta ipoteza. n1 −1. n2 −1 f1− α . n1 −1.e. f1− α . n2 −1 = 2 α 2 si Fn1 −1. si (H1 )d : 2 2 σ1 > σ2 . atunci admitem (H0 ) (i. Dorim sa testam ipoteza nula ca dispersiile sunt egale (H0 ) : vs. n2 −1 . n1 −1.

. vs.6). θ). Xn v. . θ) = θ∈A0 sup L(X1 . n2 −1 . . Sa presupunem ca X este caracteristica unei colectivitati statistice ce urmeaza o lege de probabilitate f (x. X2 . n2 −1 2 f1− α . f1−α. likelihood-ratio test) este un test statistic ce va decide intre doua ipoteze. . X2 . p. θ) θ∈A .alpha. . θ) este complet specicata in ambele sup L(X1 . X2 . . . . ipoteze. .tail) Testul raportului dispersiilor poate  simulat in unde variabilele sunt la fel ca in functia ttest2 (Sectiunea 7. . f α . +∞) Table 7. .8: Teste pentru raportul dispersiilor. . stats] = vartest2(X. θ) Λ = Λ(X1 . . Construim statistica: De notat ca distributia f (x. µ 2 necunoscute 2 2 σ1 = σ2 2 2 σ1 < σ2 2 2 σ1 > σ2 2 2 σ1 = σ2 Regiunea critica Tipul testului Testul F bilateral Testul F unilateral stanga Testul F unilateral dreapta −∞.6. bazandu-se pe raportul verosimilitatilor. . n1 −1.6. Xn . +∞ 2 (−∞. ipoteza alternativa (H1 ) : θ ∈ A \ A0 . 7. n1 −1. cu θ parametru necunoscut si e A0 ⊂ A multimi masurabile. la un nivel de semnicatie α. n2 −1 ) (−f1−α.Y.182 (H0 ) : (H1 ) µ1 .a. X2 . de selectie. Testul F în Matlab Matlab utilizand comanda [h. Xn . Xn . n1 −1. . n2 −1 .. . Dorim sa testam ipoteza nula (H0 ) : θ ∈ A0 . . n1 −1.10 Testul raportului verosimilitatilor Testul raportului verosimilitatilor (en. ci. Consideram o selectie repetata de volum n asupra caracteristicii X si e X1 .

11 Tabel cu teste parametrice in Matlab Descriere Test pentru µ. µ1 . cand µ necunoscut ttest2 n−1 2 d (X) ∼ χ2 (n − 1) σ2 ∗ 2 σ2 d2 ∗1 ∼ Fn1 −1. Uneori. σ2 cunoscute (X1 − X2 ) − (µ1 − µ2 ) 2 σ1 n1 + 2 σ2 n2 X1 . cand σ cunoscut Funcµia Nume test testul Z (o selecµie) testul Z (2 selecµii) testul t (o selecµie) testul t (2 selecµii) testul χ2 (o selecµie) testul F (2 selecµii) Statistica Matlab ztest Z= X −µ σ √ n ∼ N (0. σ). n2 −1 2 σ1 d2 ∗2 X ∼ N (µ. σ). σ). cand σ necunoscut − X −µ d∗ (X) √ n ∼ t(n − 1) X ∼ N (µ. cand σ1 = σ2 necunoscute + X1 . Λ ∈ (0. X2 ∼ N (µ. nu poate  respinsa la acest nuvel de semnicatie). independente Test pentru µ. σ). cand σ1 . 7. sau X oarecare (n ≥ 30) Test pt σ1 /σ2 . 1) X ∼ N (µ. atunci ipoteza (H0 ) se respinge. independente Test pentru σ 2 . raportul verosimilitatilor este mare daca ipoteza nula este mai buna decat ipoteza alternativa iar testul raportului verosimilitatilor respinge ipoteza nula daca Λ depaseste o anumita valoare. σ). sau X oarecare (n ≥ 30) ∼ N (0.6.9: Tabel cu teste parametrice. µ2 − necunoscute vartest X1 . 1) Test pt µ1 − µ2 . X2 ∼ N (µ. H0 − admis) = α. atunci ipoteza (H0 ) se admite (sau. (Valoarea λα reprezinta cuantila de ordin α pentru statistica Λ. .Teoria deciziei 183 Evident. Sub forma de aici. forma de mai sus pentru Λ este fractia inversata. X2 ∼ N (µ. sau X oarecare (n ≥ 30) d2 (X2 ) ∗ n2 ttest (X1 − X2 ) − (µ1 − µ2 ) d2 (X1 ) ∗ n1 ∼ t(N ) Test pt µ1 − µ2 . 1). Denim regiunea critica U astfel incat P (Λ ≤ λα . σ). • Daca λ > λα . independente vartest2 Table 7.) Regula de decizie este urmatoarea: • Daca λ < λα .

. Se aplica la vericarea normalitatii. k Se inregistreaza numerele ni de observatii ce apartin ecarei clase Oi . Cazul neparametric Consideram caracteristica X ce urmeaza a  studiata. atunci ele vor trebui estimate mai intai (vezi cazul parametric de mai jos). i (i = 1.7. pentru ca testul sa e concludent. unde θ ∈ Θ ⊂ R este un parametru. iar numarul k trebuie modicat corespunzator (il inlocuim cu noul numar. k).7 Teste de concordanta 7. goodness of t test). i=1 ni = n. a caracterului Poisson. θ). astfel: k X(Ω) = i=1 Oi . i • Alegem statistica k χ2 = i=1 (ni − n · pi )2 . n · pi (7. a caracterului Weibull etc. Daca i p0 nu sunt cunoscute. astfel incat in noua clasa sa e respectata conditia. X(Ω)) in clase. unde pi este probabilitatea unei observatii de a apartine clasei i si p0 sunt valori specicate. Evident. a exponentialitatii. θ). atunci se vor cumula doua sau mai multe clase.184 7.18) . In acest caz. 2. • Formulam ipoteza nula (H0 ) : pi = p0 . . trebuie tinut cont de modicarea numarului de clase. In cazul in care numarul de aparitii intr-o anumita clasa nu depaseste 5. Se doreste ca ni ≥ 5. Oi Oj = ∅. ∀i = j. ce are legea de probabilitate data de f (x. . . Se testeaza concordanta legii empirice cu legea teoretica f (x. notat aici tot cu k ). Testul mai este numit si testul χ2 al lui Pearson sau testul χ2 al celei mai bune potriviri (en. . Etapele testului χ2 de concordanta sunt: • Descompunem multimea observatiilor asupra lui X (adica.1 Testul χ2 de concordanµ  Acest test de concordanta poate  utilizat ca un criteriu de vericare a ipotezei potrivit careia un ansamblu de observatii urmeaza o repartitie data.

6 (i = 1. • Alegem regiunea critica pentru χ2 ca ind regiunea pentru care valoarea acestei statistici pentru observatiile date satisface χ2 > χ2 0 1−α. .19 Se arunca un zar de 60 de ori si se obtin rezultatele din Tabelul 7. Sa se decida. • Alegem nivelul de semnicatie α.10: Tabel cu numarul de puncte obtinute la aruncarea zarului. • Daca ne aam in regiunea critica. 6). Altfel. statistica χ = χ2 se numeste discrepanta. . Faµa Frecvenµa absoluta 1 2 3 4 5 6 15 7 4 11 6 17 Table 7. . nu sunt dovezi statistice suciente sa se respinga. Uneori. k−1 .10. . de regula. Astfel. la nivelul de semnicatie α = 0. . k−1 este cuantila de ordin 1 − α pentru repartitia χ (k − 1.) Statistica χ2 urmeaza repartitia χ2 (k − 1). ecare dintre termenii (ni −n·pi )2 n·pi poate  privit ca ind o eroare relativa de aproximare a valorilor asteptate ale repartitiei cu valorile observate. 6. daca zarul este corect sau fals.02. foarte apropiat de zero. Ipoteza nula 1 (H0 ) : pi = .Teoria deciziei 185 (Valorile ni reprezinta numarul de valori observate in clasa i iar n pi este numarul estimat de valori ale repartitiei cercetate ce ar cadea in clasa i. 2 unde χ2 1−α. Exerciµiu 7.  este Aplicam testul χ2 de concordanta. cazul neparametric. i = 1. 2. Clasele sunt i. atunci ipoteza nula (H0 ) se respinge la nivelul de semnicatie α.

θ2 .6. .18) urmeaza repartitia χ2 cu (k − p − 1) grade de libertate. . 6}). Fiecare estimare ne va costa un grad de libertate. x = 1:6. prin metoda verosimilitatii maxime).98.01. .0863. Folosim obsrvatiile culese asupra lui X sa aproximam acesti parametri (de exemplu. 0.3882. p = 1/6*ones(1. . (se pierd p grade de .7. unde θ = (θ1 .^2). .k-1)./(60*p)). Deoarece χ2 se aa in regiunea critica.18) este χ2 cu k − 1 = 5 grade de libertate. Ipoteza nula va  aici: (H0 ) : pi = pi . . cu pj = . 5 = 15. . . ipoteza nula se respinge la nivelul de semnicatie α = 0. 2. Codul Matlab: k=6. √ Observaµia 7. +∞) = (13. θp ) ∈ Θ ⊂ Rp sunt parametri necunoscuti. ceea ce determina acceptarea ipotezei nule (adica zarul este corect) la acest nivel.17]. val = chi2inv(1-alpha. .6).99. atunci χ2 0. H=(chi2 > val) Cazul parametric a priori Acest caz apare atunci cand probabilitatile pi nu sunt cunoscute si trebuie estimate. 6 (j ∈ {1. .02. Regiunea critica este: U = (χ2 5 . θ). Odata ˆ parametrii estimati.4. Sa presupunem ca legea de probabilitate a lui X de mai sus este f (x. . f = [15.186 cu ipoteza alternativa: 1 (H1 ) : Exista un j. k). etapele testului in cazul parametric sunt cele de mai sus. cu deosebirea ca statistica χ2 data prin (7.02.18) pentru observatiile date: χ2 = 0 (15 − 10)2 (7 − 10)2 (4 − 10)2 (11 − 10)2 (6 − 10)2 (17 − 10)2 + + + + + 10 10 10 10 10 10 = 13. Repartitia statisticii χ2 data de (7. chi2 = sum((f-60*p).6. Calculez valoarea statisticii χ2 data de (7.20 Daca nivelul de semnicatie este ales α = 0. alpha = 0.11. ˆ (i = 1. . unde pi este probabilitatea unei observatii de a apartine clasei i si pi sunt valorile estimate. +∞). 0 asadar zarul este fals. 2.

X ia una dintre valorile {0. . . θ1 . . . θp ) − F (ai−1 . . . 2 • Determinam intervalul (0. .Teoria deciziei libertate din cauza folosirii observatiilor date pentru estimarea celor p parametri necunoscuti). θ2 . ˆ ˆ ˆ • Determinam estimarile de verosimilitate maxima θ1 .25. θ2 . atunci acceptam (H0 ). Atunci. θ2 . k−p−1 este cuantila de ordin 1 − α pentru repartitia χ2 cu (k − p − 1). xn . θp ). n • Se calculeaza χ2 = 0 i=1 (ni − n pi )2 ˆ . . θp . . θ1 . θ2 . Fie X variabila ce reprezinta numarul de goluri inscrise pe meci. vs. k−p−1 . altfel o respingem. 3. . . . Avem astfel de testat ipoteza nula: (H0 ) ˆ X urmeaza o lege Poisson P(λ). 6}.21 La campionatul mondial de fotbal din 2006 au fost jucate in total 64 de meciuri. . 187 Etapele aplicarii testului χ2 de concordanta (parametric) • Se dau α. θp ).   . . i=1. x1 . In totat au fost inscrise 144 de goluri. . ˆ λ=x= 144 64 = 2. x2 . deci numarul de goluri pe meci este estimat de media de goluri pe meci. . 5.05) daca numarul de goluri pe meci urmeaza o distributie Poisson. i=1  xi  • Determinam distributia empirica de selectie (tabloul de frecvente).11. ˆ k n ni = n. χ2 1−α. 2. 1. Exerciµiu 7. unde χ1−α. n pi ˆ • Daca χ2 < χ2 0 1−α.  Aplicam testul χ2 neparametric. 4. ipoteza alternativa (H1 ) ˆ X nu urmeaza o lege Poisson P(λ). ˆ ˆ ˆ F (x. θ1 . Determinati (folosind un nivel de semnicatie α = 0. numarul de goluri inscrise intr-un meci avand tabelul de distributie 7. . X :   ni ˆ ˆ ˆ ˆ ˆ ˆ • Se calculeaza pi = F (ai . k−p−1) . . . cu frecventele respective din tabel. . .

1973 0 1 2 3 4 5 ≥6 ≥5 Table 7.9926 n1 − n pi n pi 0.12. N.1126 0.9926 ≈ 5.0501 0.2371.1775 17.25). Din punct de vedere teoretic.0780.188 Nr.0274 0.2001 0.2371 0. p3 = 0. cu n pi = 4. p≥5 = 0. numerele n pi nu depasesc 5.0506 0. le stergem din tabel si le unim intr-o singura clasa.3124 0.2415 1.7514 4.1054 0.11: Tabel cu numarul de goluri pe meci la FIFA WC 2006.0747 12. in care X ≥ 5. p4 = 0. Daca admitem ipoteza (H0 ) (adica X ∼ P(2.1054. p1 = 0.2034 3. clase din tabelul 7. daca X este o variabila aleatoare Poisson. ˆ atunci pi = pi (λ) si tabloul de distributie a valorilor variabilei este: Deoarece pentru ultimele doua Clasa ni 8 13 18 11 10 2 2 4 pi 0.2668 0. p2 = 0. . Ipoteza nula (H0 ) se poate rescrie astfel: (H0 ) : p0 = 0.2668.2547 1.25). de meciuri 0 1 2 3 4 5 6 8 13 18 11 10 2 2 Table 7. X = 5 si X ≥ 5.8060 7.7456 15. de goluri pe meci Nr.12: Tablou de distributie pentru P(2.1126.2001.2333 0.0857 − − 0. atunci multimea tuturor valorilor sale este multimea numerelor naturale.0780 n pi 6.

este cuanticat distanta dintre functia de repartitie empirica a selectiei si functia de repartitie pentru repartitia testata. 0 0.4877.Teoria deciziei Ipoteza alternativa este 189 (H1 ) ipoteza (H0 ) nu este adevarata. Calculam acum valoarea statisticii 7. urmeaza ca ipoteza nula (H0 ) nu poate  respinsa la nivelul de 0. reziduuri standardizate mai mari ca 2 sunt semne pentru numere observate extreme. Regiunea critica pentru χ este intervalul (χ2 4 .. Asadar.7. √ Observaµia 7.22 Daca ipoteza nula este respinsa. unde prin Oi am notat valorile observate si prin Ei valorile asteptate. repartitiile considerate in ipoteza nula sunt repartitii de tip continuu.2034)2 (4 − 4. 4 = 9. . Putem deni astfel reziduurile standardizate: ri = Oi − n pi n pi (1 − pi ) = Oi − Ei Ei (1 − pi ) .9926 Deoarece avem 6 clase si am estimat parametrul λ numarul gradelor de libertate este 6 − 1 − 1 = 4.7456)2 (13 − 15. 7.95.0747)2 (11 − 12.1775)2 (18 − 17.8060)2 + + + + .8060 (10 − 7. atunci motivul poate  acela ca unele valori ale valorilor asteptate au deviat prea mult de la valorile asteptate.95. Deoarece χ2 < χ2 4 . De fapt.0747 12. este interesant de observat care valori sunt extreme.7456 15. semnicatie α.2034 4.1336. sau distanta intre doua functii de repartitie empirice.18 pentru observatiile date: χ2 = 0 + (8 − 6. Daca ipoteza nula ar  adevarata. +∞). 7. atunci ri ∼ N (0.2 Testul de concordanta Kolmogorov-Smirnov Acest test este un test de contingenta utilizat in compararea unor observatii date cu o repartitie cunoscuta (testul K-S cu o selectie) sau in compararea a doua selectii (testul K-S pentru doua selectii).. 1). In ecare caz. 2 Cuantila de referinta (valoarea critica) este χ2 0. 6. In acest caz.1775 17. cauzand respingerea ipotezei nule.20. este rezonabil sa armam ca numarul de goluri marcate urmeaza o repartitie Poisson. Testul KolmogorovSmirnov cu doua selectii este unul dintre cele mai utile teste de contingenta pentru compararea a doua selectii. In general.9926)2 + = 2.95. Testul Kolmogorov-Smirnov este bazat pe rezultatul Teoremei 5.

Etapele aplicarii testului lui Kolmogorov-Smirnov pentru o selectie:   . n ) = 1 − α. n | (H0 ) − adevarata) = α. i=1. versus ipoteza alternativa (H1 ) care arma ca ipoteza (H0 ) nu este adevarata. avem ca: P (dn ≤ dα. n . unde α este nivelul de semnicatie. n | (H0 ) − adevarata) = 1 − α. cautam sa stabilim ipoteza nula. n . sucient de mare. in cazul in care ipotezele testului sunt satisfacute. Sa presupunem ca ne sunt date un set de date statistice si urmarim sa stabilim repartitia acestor date. Studiind functia empirica de repartitie a acestui set de date. de exemplu: (H0 ) repartitia empirica a setului de date urmeaza o repartitie data. cu i=1  xi  • Se dau α. ce are functia de repartitie teoretica F (x). n = λ1−α. atunci diferentele dn nu vor depasi anumite valori. asadar. Mai intai. Daca ipoteza (H0 ) este adevarata. Principiul de decizie este urmatorul: • Daca dn satisface inegalitatea • Daca dn satisface inegalitatea √ √ n dn < λ1−α. sa consideram regiunea critica (acolo unde (H0 ) nu are loc) ca ind acea regiune unde P (dn > dα. dα. Este resc. atunci respingem ipoteza (H0 ). n astfel incat K(λ1−α. n . n | (H0 ) − adevarata) = 1 − P (dn > dα. n (cuantila de ordin 1 − α pentru functia lui Kolmogorov). atunci admitem ipoteza (H0 ). Kolmogorov a gasit ca (vezi relatia (5. Dar. X . de unde alegem dα. n dn > λ1−α.190 Testul K-S pentru o selectie Acest test este mai puternic decat testul χ2 . n . F (x) si tabloul de frecvente X :   ni • Calculam λ1−α. pentru orice n xat.7)) ∗ distanta dn = sup |Fn (x) − F (x)| satisface relatia x∈R n→∞ ∞ √ lim P ( n dn < λ) = K(λ). unde K(λ) = k=−∞ este functia lui Kolmogorov (tabelata). n ni = n.

Fie X caracteristica ce reprezinta numarul de minute asteptate in statie. . Se cere sa se cerceteze (α = 0. . Pentru i = 1. xi = i=1. parametric. Deoarece parametrul λ este necunoscut. Rezultatele observatiilor sunt sumarizate in Tabelul 7.Teoria deciziei ∗ • Se calculeaza dn = sup |Fn (ai ) − F (ai )|. prin metoda verosimilitatii maxime.23 Intr-o anumita zi de lucru. Functia de verosimilitate pentru exp(λ) este n n L(x1 . pana la incheierea zilei de lucru (adica. va trebui estimat pe baza selectiei date. λ) − F0 (ai−1 . n ai−1 +ai . urmarim timpii de asteptare intr-o statie de tramvai. . atunci admitem ipoteza (H0 ).13: Timpi de asteptare in statia de tramvai. ai ] | F = F0 ) = F0 (ai . 2. ipoteza alternativa F (x) ∼ F0 (x) = 1 − e−λ x . . Avem de testat ipoteza nula (H0 ) vs. λ) . ∂λ ∂λ x Se observa cu usurinta ca ∂ 2 ln L | ˆ = −n x2 < 0. n .5) daca timpii de asteptare sunt repartizati exponential Durata 0−2 35 2−5 25 5 − 10 17 10 − 15 14 15 − 20 6 20 − 30 3 ni Table 7. calculez probabilitatile pi (0) ˆ ˆ = P (X ∈ (ai−1 . λ) = k=1 λe−λ x −λ xi n i=1 =λ e = λn e−λ n x Punctele critice pentru L(λ) sunt date de ecuatia ∂ ln L ∂ 1 ˆ = 0 =⇒ (n ln λ − λ n x) =⇒ λ = . 2 191 • Daca dn satisface inegalitatea √ n dn < λ1−α. ∂λ2 λ=λ ˆ de unde concluzionam ca λ este punct de maxim pentru functia de verosimilitate. xn . pana soseste tramvaiul. x > 0 = (H1 ) ipoteza (H0 ) este falsa. 6.13. . . Exerciµiu 7. . altfel o respingem. . pana trece ultimul tramvai). x2 .  Solutia 1 Folosim testul χ2 de concordanta.

. 3].95.1e6)-F(l.5*ones(6.103 (15.1). p4 = F(l.5*ones(14. 15] 0.20)-F(l.0).25*ones(3. Se cere sa se verice normalitatea lui X a) utilizand testul de concordanta χ2 . ..15.^2/(100*p). p3. % estimatorul % functia de repartitie p3 = F(l.2). iar datele de selectie au fost grupate in Tabelul 7. p1 = F(l. p6 = F(l.2.5*ones(17. p = [p1.12. Calculam valoarea χ2 0.1).1). Codul este urmatorul: Matlab x = [ones(35.7..14: Probabilitati de asteptare in statia de tramvai. 4 . F = inline('1-exp(-l*t)').244 (10. end Solutia 2 Folosim testul Kolmogorov-Smirnov .5*ones(25.1).0318 pi (0) Table 7. Tabelul 7.5). 17. 25.1).15). 2] 0. if (chi2 < cuant) disp('ipoteza (H0) se admite'). cuant = chi2inv(0. chi2 = (n-100*p). 17.95. 20] 0.. n = [35.15)-F(l.192 Durata (0. cu nivelul de semnicatie α = 0. ipoteza (H0 ) nu poate  respinsa la acest nivel de semnicatie. Deoarece χ2 < χ2 0 0.2861 (5.1)]. +∞) 0. 6.1887.4).2)-F(l. p5. de asemenea. 5] 0.4877 si.95.2917 (2. S-a facut o selectie de volum n = 200.05. else disp('ipoteza (H0) se respinge')..10)-F(l.5)-F(l. l = 1/mean(x).24 (de vericare a normalitatii) Se considera caracteristica X ce reprezinta inaltimea barbatilor (in centimetri) dintr-o anumita regiune a unei tari. k χ2 = 0 i=1 (ni − n pi )2 n pi (0) (0) = 1. p6]. p2 = F(l. 10] 0.0435 (20. √ Exerciµiu 7. p2. 4 = 9.10). Completam tabelul de frecvente.p5 = F(l.14. Numarul gradelor de libertate este k − p − 1 = 4.20). p4. 14.

185] (185.15: Frecventa inaltimii barbatilor dintr-o anumita regiune. 170] (170. cu media si dispersia estimate folosind x. Teste de concordanµ  în Matlab Am vazut deja ca functia chi2gof(x) testeaza (folosind testul χ2 ) daca vectorul x provine dintr-o repartitie normala. alpha.) [h. cv] = kstest(x. 175] (175. +∞] ni 12 23 31 43 35 27 17 9 3 Table 7.Teoria deciziei b) utilizand testul de concordanta Kolmogorov-Smirnov. 190] (190.val2. 195] (195.. cu nivelul de semnicatie α = 0. [ h. p. ksstat.name1. 180] (180.name2. 165] (165. 193 Clasa (−∞.val1. F.p.. type) .05..stats] = chi2gof(X. 200] (200.

194 7. 150) [150. In urma unui sondaj la care au participat 100 de familii. Exerciµiu 7. (ii) Sa se verice aceeasi ipoteza. 75) [75.05) Facem presupunerea ca numarul cetatenilor dintr-un oras ce nu detin nu computer are o repartitie uniforma continua. 412 din 1800 declara acelasi lucru. 200) [200. 125) [125. ipoteza ca media acestor cheltuieli lunare pentru o singura familie este de 140 RON . 300)   . 250) [250. B . stiind ca abaterea standard este 35 RON . Exerciµiu 7. . (α = 0.16. 175) [175. cu nivelul de semnicatie α = 0. Testati ipoteza ca in ecare familie probabilitatea Numar de copii Frecventa 4 fete 3 fete si un baiat 2 fete si 2 baieti o fata si 3 baieti 38 138 213 141 34 4 baieti Table 7. am obtinut datele (repartitia de frecvente):  6 11 13 18 20 14 11 7   [50.8 Exercitii propuse Exerciµiu 7. 325 de locuitori din 1500 interogati declara ca nu detin un computer. Intr-un alt oras. (i) Sa se verice. Sa se testeze daca proportia de locuitori care nu detin un computer este aceeasi în ambele orase.16: Distributia copiilor intr-o familie cu 4 copii. Rezultatele sunt cele din Tabelul 7.3 Intr-un spital s-a inregistrat de-alungul timpului sexul copiilor a 564 mame care au cate 4 copii.4 Caracteristica X reprezinta cheltuielile lunare pentru convorbirile telefonice ale unei familii. in cazul in care abaterea standard nu este cunoscuta a priori.02. de a apare la nastere a un baiat este aceeasi cu cea de a apare o fata.2 Intr-un oras A. 100) [100.

[10] Dan Stefanoiu. Vladimir Trebici. edition. Editura stiintica si enciclopedica. 1 . prin Matlab. Joseph W. 1997.Computer Applications.. ISBN: 0393929728 [5] Robert V. 1980. 6th edition. DeVore. Bucuresti. 1985. [6] Marius Iosifescu. Ghid de utilizare MATLAB. . Brasov. Emiliana Ursianu. Ia³i. Teoria probabilitatilor cu exemple si probleme. Costache Moineagu. Inc. [3] Jay L. Bucuresti. 2000. Micu. [2] Virgil Craiu. Teoria probabilitatilor si statistica matematica. McKean. Statistica. 1994. 2007. 4th Introduction to Mathematical Statistics. Kenneth N. Bucuresti. W. Editura Fundatiei "Romania de Maine". Statistics. Robert Pisani.Cuza. Iasi. 2002. Universitatea A. W. 1976. Duxbury Press. ISBN: 0534404731. Probabilitati si Statistica matematica . 2004. Editura Transilvania.I. N. ISBN: 0130085073. . Norton & Company. [8] Elena Nenciu. Modern Mathematical Statistics with Applications (with CD- ROM). Cluj-Napoca. Hogg. Roger Purves. Berk. tice Hall. Lectii de statistica matematica. [7] Gheorghe Mihoc. Pren- Mic  enciclopedie de statistic . Presa universitara clujeana. [9] Octavian Petru³. Allen Craig. 2006.Bibliography [1] Petru Blaga. [4] David Freedman.

You're Reading a Free Preview

Download
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->