Sunteți pe pagina 1din 68

Cuprins

1 Curs 1 3
1.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Camp clasic de probabilitate . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Probabilitate conditionata si evenimente independente . . . . . . . . . . . . 5
2 Cursul II 8
2.1 Spatii de probabilitate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 Probabilitate. Spatiu de probabilitate . . . . . . . . . . . . . . . . . . . . . . 9
2.3 Probabilitate conditionata . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3 Cursul III 12
3.1 Variabile aleatoare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2 Functia de repartitie a unei variabile aleatoare . . . . . . . . . . . . . . . . . 12
3.3 Variabile aleatoare de tip discret . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.4 Variabile aleatoare de tip continuu . . . . . . . . . . . . . . . . . . . . . . . 15
4 Cursul IV 19
4.1 Variable aleatoare independente . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.2 Caracteristici numerice ale variabilelor aleatoare reale . . . . . . . . . . . . . 20
5 Cursul V 23
5.1 Inegalitatea lui Cebasev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.2 Covarianta si coecientul de corelatie . . . . . . . . . . . . . . . . . . . . . . 24
6 Cursul VI 27
6.1 Convergenta aproape sigura (a.s.) . . . . . . . . . . . . . . . . . . . . . . . . 27
6.2 Convergenta in probabilitate . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
6.3 Convergenta in repartitie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
6.4 Convergenta in medie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
6.5 Legea Numerelor Mari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
7 Cursul VII 36
7.1 Functia caracteristica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
8 Cursul VIII 42
8.1 Convergenta in repartitie si legatura cu functia caracteristica. . . . . . . . . 42
8.2 Teorema Limita Centrala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1
9 Cursul IX 47
9.1 Elemente de statistica descriptiva . . . . . . . . . . . . . . . . . . . . . . . . 47
9.2 Elemente de baza de statistica . . . . . . . . . . . . . . . . . . . . . . . . . . 47
9.3 Tabele de valori observate . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
9.3.1 Date de selectie, valori de selectie, sondaje . . . . . . . . . . . . . . . 49
9.4 Reprezentarea graca a datelor 1-dimensionale . . . . . . . . . . . . . . . . . 51
9.4.1 Reprezentarea prin batoane/bastonase . . . . . . . . . . . . . . . . . 51
9.4.2 Reprezentarea prin histograma . . . . . . . . . . . . . . . . . . . . . . 51
9.5 Sistematizarea datelor bidimensionale . . . . . . . . . . . . . . . . . . . . . . 51
10 Cursul X 53
10.1 Caracteristici numerice ale distributiilor statistice . . . . . . . . . . . . . . . 53
10.2 Corelatie si regresie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
10.2.1 Drepte de regresie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
11 Cursul XI 58
11.1 Caracteristici de sondaj . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
11.2 Elemente de teoria estimatiei punctuale . . . . . . . . . . . . . . . . . . . . . 59
11.3 Metoda verosimilitatii maxime . . . . . . . . . . . . . . . . . . . . . . . . . . 61
11.4 Metoda momentelor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
12 Cursul XII 64
12.1 Vericarea ipotezelor statistice . . . . . . . . . . . . . . . . . . . . . . . . . . 64
12.2 Testul Z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
12.3 Testul T . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
12.4 Puterea unui test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
2
Capitolul 1
Curs 1
1.1 Introducere
Teoria probabilitatilor se ocupa cu studiul fenomenelor aleatoare, de exemplu jocurile de
noroc, studierea duratei de viata a unui individ dintr-o anumita populatie, extragerea unei
bile dintr-o urna cu bile albe si begre, si observarea culorii.
O experienta se numeste aleatoare daca rezultatul sau este supus intamplarii.
In teoria probabilitatilor intalnim notiunile de proba, eveniment, probabilitate.
Rezultatul unei experiente aleatoare se numeste proba sau caz posibil. In experienta
arucarii unui zar o data, aparitia fetei cu i puncte este o proba. Avem astfel probele {i}, i =
1, 6. Orice armatie legata de o experienta aleatoare despre care nu putem spune ca s-a
produs sau nu decat dupa efectuarea experientei se numeste eveniment. In experienta
aruncarii unui zar aparitia unei fete cu numar par de puncte este un eveniment.
In acest limbaj ecare proba este un eveniment, numit eveniment elementar, restul
evenimentelor ind evenimente compuse. Legat de experienta aruncarii unui zar avem
urmatoarele evenimente elementare: {1}, {2}, ..., {6}.
Daca A este evenimentul aparitiei unei fete cu un numar par de puncte, atunci A se
realizeaza daca si numai daca se realizeaza unul din evenimentele elementare {2}, {4}, {6},
deci vom scrie A = {2, 4, 6}.
Evenimentul care se produce la orice efectuare a unei experiente se numeste evenimentul
sigur si se noteaza cu . Evenimentul care nu se produce la nici o efectuare a experientei
se numeste evenimentul imposibil si se noteaza cu . In cazul aruncarii zarului =
{1, 2, ..., 6}, iar evenimentul aparitiei unei fete cu 7 puncte este .
Fiecare eveniment A legat de o experienta aleatoare este format din multimea probelor
(sau a evenimentelor elementare) care duc la realizarea sa. Fiecare eveniment este o parte
a evenimentului sigur. Un eveniment elementar care duce la realizarea evenimentului A se
numeste caz favorabil producerii lui A.
Fiecarui eveniment A legat de o experienta aleatoare ii corespunde un eveniment care se
realizeaza ori de cate ori A nu se realizeaza. Acest eveniment se numeste contrarul lui A si
se noteaza cu CA sau A.
Daca avem A si B doua evenimente, avem evenimentul care se realizeaza atunci cand cel
putin unul din cele doua se intampla, numit A sau B, notat cu AB. Evenimentul care se
realizeaza ori de cate ori se realizeaza ambele se numeste A si B si se noteaza A B.
3
Spunem ca doua evenimente sunt incompatibile daca nu se pot realiza simultan, si scriem
A B = .
Daca A duce la realizarea lui B spunem ca A implica B, si scriem A B.
Daca A B si B A, atunci spunem ca A si B sunt echivalente, si notam A = B.
Consideram nit. (, P()) se numeste campul de evenimente asociat experientei
aleatoare.
Evenimentele elementare pot avea aceleasi sanse de realizare - egal posibile, sau nu.
Exemplu 1. a) La aruncarea unui zar o data, evenimentele elementare sunt egal posibile.
b) Consideram o urna care contine 10 bile numerotate de la 1 la 10, primele 3 bile ind de
culoare alba, si restul de 7 de culoare neagra. Extragem la intamplare o bila din urna si
observam culoarea. Evenimentele elementare sunt:
{a} - aparitia unei bile albe
{b} - aparitia unei bile negre
In acest caz evenimentele elementare un sunt egal posibile.
1.2 Camp clasic de probabilitate
Fie (, P()) un camp nit de evenimente, cu toate evenimentele egal posibile, = {
1
, ...,
n
}
. Fie A = {
i
1
, ...,
i
r
} .
Denit ie 1. Numim probabilitate a evenimentului A raportul dintre numarul cazurilor fa-
vorabile lui A si numarul cazurilor egal posibile:
P(A) =
numarul cazurilor favorabile lui A
numarul cazurilor egal posibile
=
r
n
(1.1)
Functia P : P() [0, ) denita de (1.1) se numeste probabilitate clasica pe , iar
(, P(), P) se numeste camp clasic de probabilitate.
Cu aceasta denitie avem P({
i
}) =
1
n
, i 1, n, deci evenimentele elementare sunt
echiprobabile.
Proprietat i 1. Probabilitatea clasica satisface urmatoarele proprietati:
1. 0 P(A) 1, A- eveniment, A
2. P() = 0
3. A , avem P(A) = 1 P(A)
4. A, B , A B avem P(B \ A) = P(B) P(A), P(A) P(B)
5. P(A B) = P(A) + P(B), A, B , A B =
6. P(A B) = P(A) + P(B) P(A B), A, B
4
7. A
1
, A
2
, ..., A
r

P

i=1
A
i

=
n

i=1
P(A
i
)

1i<jn
P(A
i
A
j
) +

1i<j<kn
P(A
i
A
j
A
k
) ...
... + (1)
n1
P(A
1
A
2
... A
n
)
(1.2)
[Identitatea lui Poincare]
Demonstrat ie. 1. P() =
card
card
= 1
2. P() = P( )
3
= P() + P() P() = 0.
3. P(A B) =
r+s
n
=
r
n
+
s
n
= P(A) + P(B), unde
cardA = r, cardB = s, A B = implica card(A B) = r + s.
4. Fie A B . Atunci B = A (B \ A), deci, aplicand 3. avem
P(B) = P(A) + P(B \ A) 0 P(B \ A) = P(B) P(A) P(A) P(B)
Observatie. A avem 0 P(A) P() = 1 adica P(A) [0, 1].
5. Scriem A B = A (B \ (A B)) de unde
P(A B)
3
= P(A) + P(B \ (A B))
4
= P(A) + P(B) P(A B)
6. P(

A) =
nr
n
= 1
r
n
= 1 P(A) deoarece cardA = r si card

A = n r.
7. Se demonstreaza prin inductie dupa n, pentru n = 2 avand relatia de la 5.
1.3 Probabilitate conditionata si evenimente indepen-
dente
Consideram experienta aruncarii unui zar o data. Fie A = {1, 2}, B = {2, 3, 4}. Calculam
probabilitatea lui A stiind ca s-a produs B, numita in cele ce urmeaza probabilitatea lui A
conditionata de B :
P(A|B) =
1
3
;
P(A B)
P(B)
=
1
6
3
6
=
1
3
= P(A|B) =
P(A B)
P(B)
Fie (, P(), P) camp clasic de probabilitate, A, B , P(B) > 0, cardA = r, cardB = s,
card(A B) = q. Avem
P(A|B) =
q
s
=
q
n
s
n
=
P(A B)
P(B)
Propozit ie 1. Fie (, P(), P) un spatiu clasic de probabilitate, A, A
1
, ..., A
r
, P(A
i
) >
0, i 1, r, A
i
A
j
= , i = j,

r
i=1
A
i
= . Atunci
5
1. Formula probabilitatii totale:
P(A) =
r

i=1
P(A
i
)P(A|A
i
) (1.3)
2. Formula lui Bayes:
P(A
i
|A) =
P(A
i
)P(A|A
i
)

r
j=1
P(A
j
)P(A|A
j
)
, i = 1, r, P(A) > 0 (1.4)
Demonstrat ie. 1.
P(A) = P(A ) = P

A
r

i=1
A
i

= P

i=1
(A
i
A)

=
Folosind faptul ca
(A
i
A) (A
j
A) = (A
i
A
j
) A = , i = j
obtinem
P(A) =
r

i=1
P(A
i
A) =
r

i=1
P(A)P(A|A
i
)
2. Avem
P(A
i
|A) =
P(A
i
A)
P(A)
=
P(A
i
)P(A|A
i
)

r
j=1
P(A
j
)P(A|A
j
)
Fie A = {1, 2}, B = {2, 3, 4}.
P(A|B) =
P(A B)
P(B)
=
1/6
3/6
=
1
3
= P(A)
P(A|B) =
P(A B)
P(B)
=
1/6
3/6
=
1
3
= P(A)
Observam deci ca realizarea sau nerealizarea lui B nu inuenteaza producerea lui A. Analog,
producerea sau neproducerea lui A nu inuenteaza producerea lui B. Intuitiv, A si B sunt
independente.
Denit ie 2. Fie (, P(), P) un spatiu de probabilitate clasica. Spunem ca evenimentele
A, B sunt independente daca
P(A|B) = P(A), P(A|B) = P(A), P(B|A) = P(B), P(B|A) = P(B) (1.5)
Observat ie 1. A si B sunt independente daca si numai daca
P(A B) = P(A)P(B) (1.6)
6
Denit ie 3. Spunem ca evenimentele A
1
, ..., A
r
sunt independente daca probabilitatea
oricarei intersectii formate cu ele este produsul probabilitatilor individuale:
P(A
i
1
A
i
2
.... A
i
k
) = P(A
i
1
)P(A
i
2
) ... P(A
i
k
), 1 i
1
... i
k
r, k = 2, r (1.7)
Observat ie 2. In cazul evenimentelor A, B, C, independenta celor trei se traduce astfel:
P(A B) = P(A)P(B), P(A C) = P(A)P(C), P(B C) = P(B)P(C), adica A, B, C
sunt independente doua cate doua, si P(A B C) = P(A)P(B)P(C), adica A, B, C sunt
independente 3 cate 3.
Propozit ie 2 (Formula lantului). Fie (, P(), P) spatiu clasic de probabilitate, A
1
, ..., A
r

, P(A
1
A
2
... A
r
) > 0. Atunci
P(A
1
... A
r
) = P(A
1
)P(A
2
|A
1
)P(A
3
|A
1
A
2
) ... P(A
r
|A
1
... A
r1
) (1.8)
Demonstrat ie. Avem relatiile urmatoare:
P(A
1
) = P(A
1
)
P(A
2
|A
1
) =
P(A
1
A
2
)
P(A
1
)
P(A
3
|A
1
A
2
) =
P(A
1
A
2
A
3
)
P(A
1
A
2
)
.
.
.
P(A
r
|A
1
A
2
A
3
... A
r1
) =
P(A
1
A
2
...A
r
)
P(A
1
A
2
...A
r1
)
de unde, prin inmultire se obtine relatia ceruta.
7
Capitolul 2
Cursul II
2.1 Spatii de probabilitate
Fie o multime nevida, P() multimea partilor lui .
Denit ie 1. Numim algebra pe o clasa F P() cu urmatoarele proprietati:
1. F
2. A F avem C
A
F (F - inchisa la complementara)
3. A
1
, ..., A
n
, ... F avem

n1
A
n
F (F - inchisa la reuniuni numarabile)
Exemplu 1. Urmatoarele sunt algebre: {, }, {, A, C
A
, }, P().
Proprietat i 2. Fie F o - algebra peste . Atunci
1. F
2. A
1
, ..., A
n
, ... F avem

n1
A
n
F (F - inchisa la intersectii numarabile)
3. A, B F avem A \ B, B \ A F
Demonstrat ie. 1. F si folosind punctul 2. al denitiei obtinem ca C

= F.
2.
C(

n1
A
n
) =

n1
C
A
n
F
deci

n1
A
n
F.
3. Fie A
1
= A F, A
2
= C
B
F, A
n
= F, n 3. Atunci

n1
A
n
= A C
B
... ... = A C
B
= A \ B F
Fie M P() o subclasa de parti ale lui .
8
Denit ie 2. Numim - algebra generata de M, si o notam cu (M), cea mai mica -
algebra care il contine pe M, adica
F algebra , M F = (M) F.
Observat ie 1.
(M) =

F algebra , MF
F
Exemplu 2. Fie = IR, G = multimea deschisilor din IR.
(G) = B
IR
multimea borelienelor din IR
Analog
B
IR
k = ({(a
1
, b
1
) ... (a
k
, b
k
)|a
i
< b
i
, i = 1, k, a
i
, b
i
IR})
Denit ie 3. Fie multime nevida si F o - algebra pe . Atunci (, F) se numeste camp
de evenimente.
2.2 Probabilitate. Spatiu de probabilitate
Denit ie 4. Fie (, F) camp de evenimente. Functia P : F [0, ) se numeste proba-
bilitate daca
1. P() = 1
2. A
1
, ..., A
n
F, A
i
A
j
= , i = j avem
P

n1
A
n

n1
P(A
n
)
Propozit ie 1. In conditiile de mai sus, au loc urmatoarele relatii:
1. P() = 0
2. P(A B) = P(A) + P(B), A, B , A B =
3. P(

A) = 1 P(A), A
4. A, B , A B P(B \ A) = P(B) P(A) si P(A) P(B)
5. P(A B) = P(A) + P(B) P(A B) A, B
6. A
1
, A
2
, ..., A
n
avem
P

i=1
A
i

=
n

i=1
P(A
i
)

1i<jn
P(A
i
A
j
) +

1i<j<kn
P(A
i
A
j
A
k
) ...
... + (1)
n1
P(A
1
A
2
... A
n
)
(2.1)
(Identitatea lui Poincare)
9
7. Daca A
1
A
2
... A
n
..., atunci
P

n1
A
n

= lim
n
P(A
n
)
si daca A
1
A
2
... A
n
... atunci
P

n1
A
n

= lim
n
P(A
n
)
Demonstrat ie. 1. P() = P( ... )
2
= P() = P() + P() + ... + P() + ... =
P() P() = 0.
2.
P(AB) = P(AB... ) = P(A)+P(B)+P()+... +P()+... = P(A)+P(B)
3. = A C
A
si A C
A
= , deci, cu punctul 2. al denitiei obtinem
P() = P(A) + P(C
A
) = P(C
A
) = 1 P(A)
4. Daca A B rezulta B = A (B \ A0) cu A (B \ A) = de unde
P(B) = P(A) + P(B \ A) adica P(B \ A) = P(B) P(A)
Cum P(B \ A) 0 se obtine imediat ca P(A) P(B).
Observat ie. Cum A , A F, obtinem ca P(A) P() = 1, A F, deci
P(A) [0, 1], A F.
5. A B = A (B \ (A B)), si multimile sunt disjuncte, deci
P(A B) = P(A) + P(B \ (A B))
4
= P(A) + P(B) P(A B)
6. Se demonstreaza prin inductie dupa n.
7. Fie A
1
A
2
... A
n
.... Notam
B
1
= A
1
, B
2
= A
2
\ A
1
, .... B
n
= A
n
\ A
n1
, ...
Observam ca

n1
A
n
=

n1
B
n
=

n1
P(B
n
) = lim
n
n

k=1
P(B
k
) =
= lim
n
(P(A
1
) + P(A
2
\ A
1
) + ... + P(A
n
\ A
n1
))
4
=
= lim
n
(P(A
1
)+P(A
2
)P(A
1
)+P(A
3
)P(A
2
)+...+P(A
n
)P(A
n1
)+...) = lim
n
P(A
n
)
10
Pentru un sir descrescator de evenimente A
1
A
2
... A
n
... avem
P

n1
A
n

= 1P

n1
A
n

= 1 lim
n
P(A
n
) = 1 lim
n
(1P(A
n
)) = lim
n
P(A
n
)
deoarece A
1
A
2
... A
n
....
Denit ie 5. In conditiile de mai sus, tripletul (, F, P) se numeste spatiu de probabilitate.
Exemplu 3. Fie campul de evenimente (IR, B
IR
), si denim functia
a
: B
IR
[0, ),

a
(A) =

1, a A
0, a / A
Functia astfel denita se numeste masura Dirac si este o probabilitate, iar (IR, B
IR
,
a
) este
spatiu de probabilitate.
2.3 Probabilitate conditionata
Fie (, F, P) spatiu de probabilitate, A F, P(A) > 0.
Denit ie 6. Numim probabilitate conditionata de A functia P(|A) data de relatia:
P(B|A) =
P(A B)
P(A)
, B F (2.2)
Observat ie 2. P( |A) este o probabilitate pe (, F).
Propozit ie 2. Fie (, F, P) - spatiu de probabilitate, A
k
F, k = 1, ..., n, P(A
1
...
A
n1
) > 0. Atunci
P(A
1
A
2
... A
n
) = P(A
1
)P(A
2
|A
1
) ... P(A
n
|A
1
... A
n1
) (2.3)
(Formula lantului)
Propozit ie 3. Fie (, F, P) un spatiu de probabilitate, A
1
, ..., A
n
F, A
j
A
k
= , j = k,

n
k=1
A
k
= , P(A
k
) > 0, k. Atunci avem
1.
P(A) =
n

k=1
P(A
k
) P(A|A
k
) (2.4)
(Formula probabilitatii totale)
2.
P(A
i
|A) =
P(A
i
) P(A|A
i
)

n
k=1
P(A
k
) P(A|A
k
)
(2.5)
(Formula lui Bayes)
11
Capitolul 3
Cursul III
3.1 Variabile aleatoare
Denit ie 1. Fie (, F, P) spatiu de probabilitate, (X, X) spatiu masurabil. Functia f :
X se numeste variabila aleatoare daca
f
1
(B) F, B X
Daca (X, X) = (IR, B
IR
) atunci f se numeste variabila aleatoare reala. Daca (X, X) =
(IR
k
, B
IR
k), k IN, atunci f se numeste variabila aleatoare vectoriala k-dimensionala.
Observat ie 1. f : IR este variabila aleatoare daca si numai daca (f < a) F, a
IR.
Propozit ie 1. Fie a IR, r > 0, f, g - variabile aleatoare reale. Atunci a+f, a f, f +g, f
g, f
r
,
f
g
, |f|, max(f, g) sunt variabile aleatoare reale. Daca (f
n
)
n1
este un sir de variabile
aleatoare reale, atunci liminf
n
f
n
, limsup
n
f
n
, lim
n
f
n
sunt variabile aleatoare reale.
3.2 Functia de repartitie a unei variabile aleatoare
Fie (, F, P), f : IR variabila aleatoare.
Denit ie 2. Functia F
f
: IR [0, 1], denita de relatia
F
f
(x) = P(f < x), x IR
se numeste functia de repartitie a variabilei aleatoare f.
Propozit ie 2. Functia de repartitie satisface urmatoarele proprietati:
1. F
f
e monoton crescatoare
2. F
f
e continua la stanga
3.
lim
x
F
f
(x) = 0,
lim
x
F
f
(x) = 1
12
Demonstrat ie. 1. x, y IR, x < y avem (f < x) (f < y) de unde
P(f < x) P(f < y) F
f
(x) F
f
(y)
2. Trebuie sa aratam ca lim
yx
F
f
(y) = F
f
(x), x IR. La punctul anterior am aratat
ca F
f
e monoton crescatoare, si cum valoarea sa este data de o probabilitate, este si
marginita de 1. Exista deci lim
yx
f
f
(y). Fie x
n
= x
1
n
, n IN

, x
n
x. Atunci
(f < x
1
n
) (f < x) lim
n
P(f < x
1
n
) < P(f < x)
deci lim
yx
F
f
(y) = lim
n
F
f
(x
n
) = F
f
(x).
3. Fie x
n
= n . Avem (f < n) ( < f < ) = deci
lim
n
F
f
(n) = lim
n
P(f < n) = P() = 1
de unde lim
x
F
f
(x) = 1.
Denit ie 3. O functie F : IR [0, 1] cu proprietatile
1. F- monoton crescatoare
2. F - continua la stanga
3.
lim
x
F(x) = 0,
lim
x
F(x) = 1
se numeste functie de repartitie pe IR.
Observat ie 2. Daca F e o functie de repartitie pe IR, exista un camp de probabilitate
(, F, P), si o variabila aleatoare f : IR astfel incat F
f
= F. Campul de probabilitate
si variabila nu sunt unice.
Denit ie 4. Fie (, F, P) un spatiu de probabilitate, f = (f
1
, ..., f
k
)

: IR
k
o variabila
aleatoare k-dimensionala. Functia F
f
1
,...,f
k
(x
1
, ..., x
k
) : IR
k
[0, 1] data de relatia
F
(f
1
,...,f
k
)
(x
1
, ..., x
k
) = P(f
1
< x
1
, ..., f
k
< x
k
), (x
1
, ..., x
k
) IR
k
se numeste functia de repartitie a variabilei aleatoare vectoriale (f
1
, ..., f
k
)

.
Propozit ie 3. 1. F
f
1
,...,f
k
este monoton crescatoare in raport cu ecare argument
2. F
f
1
,...,f
k
este continua la stanga in raport cu ecare argument
3.
lim
x
i

F
f
1
,...,f
k
= 0, i = 1, ..., k
lim
x
i

F
f
1
,...,f
k
= 1, i = 1, ..., k
13
Observat ie 3. Fie I = {1, 2, ..., k}, J = {i
1
, ..., i
r
} I. Atunci
F
(f
i
1
,...,f
i
r
)
(x
i
1
, ..., x
i
r
) = lim
x
s
,sI\J
F
(f
1
,...,f
k
)
(x
1
, ..., x
k
)
Pentru k = 2
F
f
1
(x
1
) = lim
x
2

F
(f
1
,f
2
)
(x
1
, x
2
), x
1
IR
F
f
2
(x
2
) = lim
x
1

F
(f
1
,f
2
)
(x
1
, x
2
), x
2
IR
La fel, pentru k = 3:
F
f
1
(x
1
) = lim
x
2
,x
3

F
(f
1
,f
2
,f
3
)
(x
1
, x
2
, x
3
), x
1
IR
F
f
1
,f
2
(x
1
, x
2
) = lim
x
3

F
(f
1
,f
2
,f
3
)
(x
1
, x
2
, x
3
), x
1
, x
2
IR
3.3 Variabile aleatoare de tip discret
Fie (, F, P) un spatiu de probabilitate, f : IR o variabila aleatoare reala.
Denit ie 5. Spunem ca f este de tip discret daca I cel mult numarabila, a
i
IR, i I,
astfel incat f() = {a
i
|i I}.
Fie A
i
= (f = a
i
), i I, p
i
= P(A
i
), A
i
A
j
= (f = a
i
) (f = a
j
) = ,

iI
A
i
= .
Avem
1 = P() = P(

iI
A
i
) =

iI
P(A
i
)
de unde

iI
p
i
= 1
Denit ie 6. Unei variabile aleatoare reale ii asociem urmatorul tabel, care se numeste
repartitia variabilei f:
f :

a
1
a
2
... a
i
...
p
1
p
2
... p
i
...

Exemplu 1. Se arunca un zar o data. Determinati repartitia variabilei aleatoare f care da


numarul de puncte obtinute. Calculati functia de repartitie corespunzatoare.
Denit ie 7. Fie (, F, P) un spatiu de probabilitate, f = (f
1
, .., .f
k
)

: IR
k
o variabila
aleatoare vectoriala. Spunem ca f este de tip discret daca
f() = {(a
i
, b
j
, ..., c
k
) IR
k
|i I, j J, ..., k K, I, J, ..., K cel mult numarabile}
Pentru k = 2, f = (f
1
, f
2
)

avem:
A
ij
= (f
1
= a
i
, f
2
= b
j
), i I, j J
si evenimentele respective sunt doua cate doua disjuncte si reuniunea lor dupa toti i si j este
. De asemenea

iI

jJ
P(A
ij
) = 1
14
f
1
\f
2
... b
j
...
.
.
.
.
.
.
a
i
... p
ij
...
.
.
.
.
.
.
Avem p
i
= P(f
1
= a
i
), i I si q
j
= P(f
2
= b
j
), j J si mai departe
p
i
= P(f
1
= a
i
) = P((f
1
= a
i
) ) = P((f
1
= a
i
) (

jJ
(f
2
= b
j
))) =
= P(

jJ
((f
1
= a
i
) (f
2
= b
j
))) =

jJ
P(f
1
= a
i
, f
2
= b
j
) =

jJ
p
ij
Avem astfel

jJ
p
ij
= p
i
, i I si

iI
p
ij
= q
j
, j J.
3.4 Variabile aleatoare de tip continuu
Fie (, F, P) un spatiu de probabilitate, f : IR o variabila aleatoare.
Denit ie 8. Spunem ca f este o variabila aleatoare de tip continuu daca exista
f
: IR
[, 0) astfel incat
F
f
(x) =

f
(t)dt, x IR (3.1)
Functia
f
se numeste densitatea de repartitie a variabilei aleatoare f.
Observat ie 4. Din relatia 3.1 se poate observa ca
1. F
f
este continua
2.

f
(t)dt = 1
3.
F

f
(x) =
f
(x), x IR(cu exceptia unei multimi de masura nula).
Denit ie 9. O functie : IR [0, ) cu proprietatea ca

(x)dx = 1 (3.2)
se numeste densitate de repartitie pe IR.
Observat ie 5. Daca este o densitate de repartitie pe IR, exista (, F, P) un spatiu de
probabilitate si f : IR o variabila aleatoare astfel incat
f
= .
15
Exemplu 2. Fie m IR, > 0, : IR IR
(x) =
1

(xm)
2
2
2
, x IR (3.3)
este o densitate de repartitie pe IR.
Denit ie 10. Despre o variabila aleatoare reala f care are densitatea din exemplul anterior
se spune ca are repartitia normala de parametri m si
2
si vom scrie f N(m,
2
).
Exemplu 3. Fie a > 0 si functia : IR IR data de expresia
(x) =
a

1
a
2
+ x
2
, x IR. (3.4)
Functia este o densitate de repartitie pe IR.
Denit ie 11. Despre o variabila aleatoare f care are densitatea de repartitie din exemplul
precedent spunem ca are repartitia Cauchy de parametru a si vom scrie f C(a).
Teorema 1. Fie (, F, P) un spatiu de probabilitate si f : IR o variabila aleatoare
reala de tip continuu, cu densitatea
f
, si P(f (a, b)) = 1, (a, b) IR. Fie de asemenea
g : (a, b) (, ) o functie bijectiva, derivabila astfel incat g

(x) > 0, x (a, b) sau


g

(x) < 0, x (a, b). Atunci variabila aleatoare h = g f este de tip continuu si are
densitatea de repartitie:

h
(t) =


f
(g
1
(t))

d
dt
g
1
(t)

t (, )
0, t (, )
(3.5)
Denit ie 12. Spunem ca variabila aleatoare f = (f
1
, ..., f
k
)
t
: IR
k
este de tip continuu
daca
(f
1
,...,f
k
)
: IR
k
[0, ) astfel incat
F
(f
1
,...,f
k
)
(x
1
, ..., x
k
) =

x
1

x
k

(f
1
,...,f
k
)
(t
1
, .., t
k
)dt
1
...dt
k
, (x
1
, .., x
k
)
t
IR
k

(f
1
,...,f
k
)
se numeste densitatea de repartitie a variabilei aleatoare f = (f
1
, ..., f
k
)

.
Observat ie 6. 1.

(f
1
,...,f
k
)
(t
1
, ..., t
k
)dt
1
...dt
k
= 1
2. F
(f
1
,...,f
k
)
este continua in ecare argument
3. Derivata partiala mixta

k
F
(f
1
,...,f
k
)
x
1
...x
k
(x
1
, ..., x
k
) =
(f
1
,..,f
k
)
(x
1
, ..., x
k
)
Denit ie 13. Functia : IR
k
[0, ), care satisface relatia

(f
1
,...,f
k
)
(t
1
, .., t
k
)dt
1
...dt
k
= 1
se numeste densitate de repartitie pe IR
k
.
16
Observat ie 7. Se poate stabili usor ca daca I = {1, 2, ..., k}, J = {i
1
, ..., i
r
} I, (, F, P)
spatiu de probabilitate, f = (f
1
, .., f
k
)

: IR
k
variabila aleatoare de tip continuu
cu densitatea
(f
1
,...,f
k
)
, atunci (f
i
1
, ..., f
i
r
) e un vector aleator de tip continuu si densitatea
acestuia este
(f
i
1
,...,f
i
r
)
care se obtine integrand in raport cu toate variabilele x
s
, cu s I\J.
Exemplu 4. Pentru k = 2, f = (f
1
, f
2
)

, cu densitatea
(f
1
,f
2
)
, avem

f
1
(x) =

(f
1
,f
2
)
(x, y)dy

f
2
(y) =

(f
1
,f
2
)
(x, y)dx
Daca k = 3, f = (f
1
, f
2
, f
3
):

f
1
,f
3
(x, z) =

(f
1
,f
2
,f
3
)
(x, y, z)dy

f
3
(z) =

(f
1
,f
2
,f
3
)
(x, y, z)dxdy
Propozit ie 4. Fie (, F, P) spatiu de probabilitate, f : IR variabila aleatoare, cu
functia de repartitie F
f
si a, b IR, a < b, atunci:
1. P(a f < b) = F
f
(b) F
f
(a)
2. P(a < f < b) = F
f
(b) F
f
(a + 0)
3. P(a f b) = F
f
(b + 0) F
f
(a)
4. P(a < f b) = F
f
(b + 0) F
f
(a + 0)
5. P(f = a) = F
f
(a + 0) F
f
(a)
Demonstrat ie. 1. Avem (a f < b) = (f < b) \ (f < a) si cum a < b, e clar ca
(f < a) (f < b) deci
P(a f < b) = P((f < b) \ (f < a)) = P(f < b) P(f < a) = F
f
(b) F
f
(a)
2-4. E sucient sa aratam ca
P(f a) = F
f
(a + 0)
Avem intr-adevar
(f a) =

n1
(f < a +
1
n
),
si intervalele sunt crescatoare cu n, deci putem aplica continuitatea unei probabilitati
astfel:
P(f a) = P(

n1
(f < a +
1
n
)) = lim
n
P(f < a +
1
n
) = lim
n
F
f
(a +
1
n
) = F
f
(a + 0)
Pentru 2. avem
(a < f < b) = (f < b) \ (f a), (f a) (f < b) deci
P(a < f < b) = P(f < b) P(f a) = F
f
(b) F
f
(a + 0)
17
5. avem
P(f = a) = P(a f a) = F
f
(a + 0) F
f
(a), pe baza lui 3.
Observat ie 8. Daca f este de tip continuu atunci P(f = a) = 0.
18
Capitolul 4
Cursul IV
4.1 Variable aleatoare independente
Fie (, F, P) un spatiu de probabilitate, f
1
, ..., f
n
: X variabile aleatoare pe (X, X).
Denit ie 1. Variabilele f
1
, ..., f
n
se numesc independente daca
P(
n

i=1
f
1
i
(B
i
)) =
n

i=1
P(f
1
i
(B
i
)), B
i
X, i = 1, ..., n
Relatia din denitie este echivalenta cu
P(f
1
B
1
, ..., f
n
B
n
) =
n

i=1
P(f
1
i
(B
i
)), B
i
X, i = 1, ..., n
Observat ie 1. Daca (X, X) = (IR, B
IR
) si consideram B
i
= (, x
i
), i = 1, .., n, x
i
IR,
avem
P(f
1
< x
1
, ..., f
n
< x
n
) = P(f
1
< x
1
) ... P(f
n
< x
n
)
de unde
F
(f
1
,...,f
n
)
(x
1
, ..., x
n
) = F
f
1
(x
1
) ... F
f
n
(x
n
), x
1
, ..., x
n
IR
Se poate arata ca relatia de mai sus este o conditie necesara si sucienta pentru ca variabilele
f
1
, ..., f
n
sa e independente.
Observat ie 2. Fie (f
1
, ..., f
n
) este de tip continuu, cu densitatea de repartitie
(f
1
,...,f
n
)
.
Presupunem ca f
1
, ..., f
n
sunt independente, deci avem
F
(f
1
,...,f
n
)
(x
1
, ..., x
n
) = F
f
1
(x
1
) ... F
f
n
(x
n
)
si, derivand o data in raport cu ecare variabila de obtine
F
(f
1
,...,f
n
)
x
1
...x
n
(x
1
, ..., x
n
) =
F
f
1
x
1
(x
1
) ...
F
f
n
x
n
(x
n
)
adica

(f
1
,...,f
n
)
(x
1
, ..., x
n
) =
f
1
...
f
n
(x
n
), x
1
, ..., x
n
IR
Se poate arata ca si reciproc, daca are loc relatia anterioara referitoare la densitati, atunci
variabilele corespunzatoare sunt independente.
19
Propozit ie 1. Fie (, F, P) spatiu de probabilitate, f
1
, ..., f
n
: IR variabile aleatoare
independente, si
1
, ...,
n
: IR IR functii masurabile (
1
i
(B) B
IR
, B B
IR
), atunci

1
f
1
, ...,
n
f
n
sunt independente.
Demonstrat ie. Fie B
1
, .., B
n
B
IR
. Atunci avem
P(
n

i=1
(
i
f
i
)(B
i
)) = P(
n

i=1
f
1
i
(
1
i
(B
i
))) =
=
n

i=1
P(f
1
i
(
1
i
(B
i
))) =
n

i=1
P( f
i
)
1
(B
i
)
deci
1
f
1
, ...,
n
f
n
sunt independente.
4.2 Caracteristici numerice ale variabilelor aleatoare
reale
Fie (, F, P), r 0 xat, f : IR variabila aleatoare.
Denit ie 2. Numim momentul absolut de ordin r al variabilei aleatoare f cantitatea:

M
r
(f) =

|x|
r
dF
f
(x)
Daca

M
r
(f) < atunci
M
r
(f) =

x
r
dF
f
(x)
se numeste moment de ordin r al lui f. Pentru r = 1, numarul
M
1
(f) =

xdF
f
(x)
def
= M(f)
se numeste media variabilei aleatoare f. Cantitatea
M
c
r
(f) =

(x M(f))
r
dF
f
(x)
se numeste momentul centrat de ordin r al lui f. Cantitatea
D
2
(f) = M
c
2
(f) =

(x M(f))
2
dF
f
(x)
se numeste dispersia variabilei aleatoare f.
Observat ie 3. Fie f o variabila aleatoare discreta cu repartitia
f :

x
i
p
i

iI
, I cel mult numarabila.
20
Conform proprietatilor integralei Stieltjes

M
r
(f) =

iI
p
i
|x
i
|
r
, M
r
(f) =

iI
p
i
x
r
i
, M(f) =

iI
p
i
x
i
M
c
r
(f) =

iI
(x
i
M(f))
r
p
i
, D
2
(f) =

iI
(x
i
M(f))
2
p
i
Observat ie 4. Daca f e o variabila aleatoare reala de tip continuu, cu densitatea
f
, atunci
din proprietatile integralei Stieltjes avem

M
r
(f) =

|x|
r

f
(x)dx
M
r
(f) =

x
r

f
(x)dx
M(f) =

x
f
(x)dx
M
c
r
(f) =

(x M(f))
r

f
(x)dx
D
2
(f) =

(x M(f))
2

f
(x)dx
Teorema 1. Fie (, F, P) un spatiu de probabilitate, f
1
, ..., f
n
: IR variabile aleatoare,
: IR
n
IR functie astfel incat

...

|(x
1
, ..., x
n
)|dF
(f
1
,...,f
n
)
(x
1
, .., x
n
) <
Atunci
M( (f
1
, .., f
n
)) =

...

(x
1
, .., x
n
)dF
(f
1
,..,f
n
)
(x
1
, .., x
n
)
a) Daca (f
1
, .., f
n
) este de tip discret:
f
1
:

x
i
p
i

iI
, f
2
:

y
j
q
j

jJ
, ... f
n
:

z
k
r
k

kK
,
unde I, J, .., K sunt cel mult numarabile, p
ij...k
= P(f
1
= x
i
, f
2
= y
j
, ..., f
n
= z
k
) atunci
M( (f
1
, ..., f
n
)) =

iI

jJ
...

kK
p
ij...k
(x
i
, y
j
, ..., z
k
)
b) Daca (f
n
, ..., f
n
)
1
e de tip continuu cu densitatea
(f
1
,...,f
n
)
atunci avem
M( (f
1
, ..., f
n
)) =

...

(x
1
, ..., x
n
)
(f
1
,...,f
n
)
(x
1
, ..., x
n
)dx
1
...dx
n
21
Observat ie 5.

M
r
(f) = M(|f|
r
), M
r
(f) = M(f
r
), M
c
r
(f) = M((f M(f))
r
), D
2
(f) = M((f M(f))
2
)
Demonstrat ie. Fie : IR IR, (x) = |x|
r
, |f|
r
= f, de unde
M(|f|
r
) = M( f) =

(x)dF
f
(x) =

|x|
r
dF
f
(x) = M(|f|
r
)
Observat ie 6. Fie f : IR o variabila aleatoare, f = c aproape sigur (P(f = c) = 1),
atunci M(f) = c, pentru orice c IR.
Teorema 2. Fie (, F, P) un spatiu de probabilitate, f, g : IR variabile aleatoare de
medie nita, si a, b IR. Atunci
a)
M(af + bg) = aM(f) + bM(g)
b)
|M(f)| M(|f|)
c)
f 0 M(f) 0
d)
f g M(f) M(g)
Demonstrat ie.
Teorema 3 (Teorema de multiplicare). Fie (, F, P) un spatiu de probabilitate, f
1
, ..., f
n
:
IR variabile aleatoare independente de medii nite. Atunci
M(f
1
... f
n
) = M(f
1
) ... M(f
n
)
Demonstrat ie.
Exemplu 1. Fie f N(m,
2
).
Exemplu 2. Fie f B
n,p
.
22
Capitolul 5
Cursul V
5.1 Inegalitatea lui Cebasev
Propozit ie 1 (Inegalitatea lui Markov). Fie (, F, P) spatiu de probabilitate, f : IR
o variabila aleatoare nenegativa (P(f 0) = 1). Atunci > 0
P(f )
M(f)

(5.1)
Demonstrat ie. Fie g : IR,
g() =

1, f()
0, f() <
g :

0 1
P(f < ) P(f )

Avem
P(g = 1) = P(f ), deci M(g) = P(f )
Observam ca g
f

. Intr-adevar,
daca f() , atunci
f()

1 = g()
daca f() < atunci g() = 0
f()

Avem astfel
M(g) M

=
1

M(f)
Corolar 1 (Inegalitatea lui Cebasev). Fie (, F, P) spatiu de probabilitate, f : IR o
variabila aleatoare, M
2
(f) < . Atunci, pentru orice > 0 avem
P(|f M(f)| )
D
2
(f)

2
, > 0. (5.2)
Observat ie 1. Inegalitatea lui Cebasev poate rescrisa astfel:
P(|f M(f)| < ) 1
D
2
(f)

2
, > 0. (5.3)
23
5.2 Covarianta si coecientul de corelatie
Denit ie 1. Fie (, F, P) spatiu de probabilitate, f, g : IR variabile aleatoare reale.
Numarul real
cov(f, g)
def
= M[(f M(f))(g M(g))] (5.4)
se numeste covarianta variabilelor aleatoare f si g.
Avem
cov(f, g) = M(f g f M(g) g M(f) + M(f) M(g)) =
= M(f g) M(f M(g)) M(g M(f)) + M(M(f) M(g)) =
= M(f g) M(f) M(g) M(f) M(g) + M(f) M(g) = M(f g) M(f) M(g)
Deci
cov(f, g) = M(f g) M(f) M(g) (5.5)
Denit ie 2. Daca cov(f, g) = 0 atunci f, g se numesc variabile aleatoare necorelate .
Observat ie 2. Daca variabilele aleatoare f, g sunt independente atunci sunt necorelate.
Reciproc nu este adevarat.
cov(f, g) = M(f g)M(f) M(g)
indep.
= M(f) M(g)M(f) M(g) = 0 f, g necorelate.
Demonstrat ie. Fie f, g : IR avand repartitiile
f :

1 0 1
1
3
1
3
1
3

, g() =

1, daca f() = 0
0, daca f(omega) = 0
, g :

0 1
2
3
1
3

Avem M(f) = 0, M(g) =


1
3
iar f g = 0 deci M(f g) = 0 de unde cov(f, g) = 0 adica f si
g sunt necorelate. Pentru independenta avem:
P(f = 0, g = 0) = 0 =
1
3
2
3
= P(f = 0)P(g = 0)
deci f si g nu sunt independente.
Teorema 1. Fie (, F, P) spatiu de probabilitate,
1
, ...,
n
IR, f
1
, .., f
n
: IR
variabile aleatoare necorelate doua cate doua, de dispersii nite. Atunci
D
2

i=1

i
f
i

=
n

i=1

2
i
D
2
(f
i
). (5.6)
Demonstrat ie.
D
2

i=1

i
f
i

= M

i=1

i
f
i
M

i=1

i
f
i

= M

i=1

i
(f
i
M(f
i
))

=
= M

i=1

2
i
(f
i
M(f
i
))
2
+ 2

1i<jn

j
(f
i
M(f
i
))(f
j
M(f
j
))

=
24
=
n

i=1

2
i
M((f
i
M(f
i
))
2
) + 2

1i<jn

j
M [(f
i
M(f
i
))(f
j
M(f
j
))] =
=

i=1
6n
2
i
D
2
(f
i
) + 2

1i<jn

j
cov(f
i
, f
j
) =
n

i=1

i
D
2
(f
i
)
deoarece cov(f
i
, f
j
) = 0, din ipoteza(sunt necorelate).
Corolar 2. Fie f
1
, ..., f
n
independente. Atunci
D
2

i=1

i
f
i

=
n

i=1

2
i
D
2
(f
i
)
Denit ie 3. Fie f, g variabile aleatoare reale astfel incat 0 < D
2
(f), D
2
(g) < . Numarul
real
(f, g) =
cov(f, g)

D
2
(f)D
2
(g)
(5.7)
se numeste coecientul de corelatie al variabilelor f si g.
Propozit ie 2. Coecientul de corelatie are urmatoarele proprietati:
1. (f, f) = 1
2. (f, g) = (g, f)
3. |(f, g)| 1 cu egalitate a, b IR astfel incat f = ag + b.
Demonstrat ie. 1. Avem
(f, f) =
cov(f, f)

D
2
(f)D
2
(f)
=
M(f
2
) M
2
(f)
D
2
(f)
=
D
2
(f)
D
2
(f)
= 1
2. Este evident din denitie.
3. Fie , IR si h = (f M(f)) + (g M(g)). Atunci
0 h
2
=
2
(f M(f))
2
+ 2(f M(f))(g M(g)) +
2
(g M(g))
2
de unde
M(
2
(f M(f))
2
+ 2(f M(f))(g M(g)) +
2
(g M(g))
2
) 0
adica

2
D
2
(f) 2cov(f, g) +
2
D
2
(g) 0, , IR
impartind cu
2
si notand t =

se obtine
D
2
(f)t
2
+ 2cov(f, g)t + D
2
(g) 0, t IR
25
ceea ce inseamna ca pentru ecuatia in t de mai sus avem 0 adica
4(cov(f, g))
2
4D
2
(f)D
2
(g) 0
adica, mai departe,
(cov(f, g))
2
D
2
(f)D
2
(g)
1 sau

cov(f, g)

D
2
(f)D
2
(g)

1
si in nal |(f, g)| 1.
Fie acum f = g + , , IR, = 0.
cov(f, g) = cov(g + , g) = M(g + M(g + ))(g M(g)) =
si cum M(g + ) = M(g) + , avem mai departe
cov(f, g) = M((g M(g))
2
) = D
2
(g)
Mai departe,
D
2
(f) = D
2
(g + ) = M((g + M(g + ))
2
) = M(
2
(g M(g))
2
) =
2
D
2
(g)
deci
(f, g) =
D
2
(g)

2
D
2
(g)D
2
(g)
=
D
2
(g)
||D
2
(g)
=

||
= 1
Denit ie 4. Fie (, F, P) - spatiu de probabilitate, r = (r
1
, ..., r
k
), r
i
> 0, i = 1, k,
f
1
, ..., f
k
: IR. Cantitatea
M
(r
1
,...,r
k
)
(f
1
, ..., f
k
)
def
= M (|f
1
|
r
1
... |f
k
|
r
k
)
se numeste momentul absolut de ordin r al variabilei aleatoare f = (f
1
, ..., f
k
)

.
Daca M
(r
1
,...,r
k
)
(f
1
, ..., f
k
) < ,
M
(r
1
,..,r
k
)
(f
1
, ..., f
k
)
def
= M(f
r
1
1
... f
r
k
k
)
se numeste momentul de ordin r al variabilei aleatoare f.
Vectorul
M(f)
def
=

M(f
1
)
.
.
.
M(f
k
)

se numeste media variabilei aleatoare f = (f


1
, ..., f
k
)

.
Matricea
(f)
def
= (cov(f
i
, f
j
))
i,j=1,k
=

D
2
(f
1
) cov(f
1
, f
2
) cov(f
1
, f
k
)
cov(f
1
, f
2
) D
2
(f
2
) cov(f
2
, f
k
)
.
.
.
.
.
.
.
.
.
.
.
.
cov(f
1
, f
k
) cov(f
2
, f
k
) D
2
(f
k
)

se numeste matricea de covarianta a variabilei aleatoare f = (f


1
, ..., f
k
)

.
26
Capitolul 6
Cursul VI
6.1 Convergenta aproape sigura (a.s.)
Fie (, F, P) spatiu de probabilitate.
Denit ie 1. Spunem ca proprietatea P relativa la experienta aleatoare in studiu este ade-
varata P aproape sigur daca
A F, P(CA) = 0 si P are loc in orice A.
Fie f
n
, f : IR variabile aleatoare, n IN

.
Denit ie 2. Spunem ca sirul (f
n
)
n1
este convergent aproape sigur la f, daca
P(f
n

n
f) = 1 (6.1)
si se scrie
f
n
P a.s.

n
f sau f
n
P a.s.

n
f
Relatia (6.1) este echivalenta cu
P({ | f
n
()
n
f()}) = 1
sau cu
P(f
n

n
f) = 0
Teorema 1. Pentru orice f
n
, f, g
n
, g : IR, IR sunt adevarate urmatoarele
1. f
n
P a.s.

n
f, g
n
P a.s.

n
g f
n
+ g
n
P a.s.

n
f + g si f
n
g
n
P a.s.

n
f g
2. f
n
P a.s.

n
f f
n
P a.s.

n
f
3. f
n
P a.s.

n
f, f
n
P a.s.

n
g f = g, P a.s.
27
Demonstrat ie. 1. Sa observam ca A, B F, P(A) = P(B) = 1 implica P(A B) = 1.
Intr-adevar, avem
1 P(A B) = P(A) + P(B) P(A B) = 1 + 1 P(A B)
de unde obtinem 1 2 P(A B) adica P(A B) 1.
Notam
A = (f
n

n
f), B = (g
n

n
g)
Din ipoteza avem ca
P(A) = 1 = P(B)
Fie A B. Atunci
f
n
()
n
f()
g
n
()
n
g()

f
n
() + g
n
()
n
f() + g()
si, cum P(A B) = 1, obtinem ca f
n
+ g
n
P a.s.

n
f + g. In aceeasi maniera se arata
ca f
n
g
n
P a.s.

n
f g.
2. Identic cu 1.
3. Fie (f
n

n
f) (f
n

n
g). Atunci f
n
()
n
f() si f
n
()
n
g(), adica f() =
g(). Atunci, urmand acelasi rationament ca la 1. obtinem ca f = g, P a.s.
6.2 Convergenta in probabilitate
Fie (, F, P) - spatiu de probabilitate, f
n
, f : IR variabile aleatoare
Denit ie 3. Spunem ca (f
n
)
n1
converge in probabilitate la f, si notam f
P

n
f daca
lim
n
P(|f
n
f| ) = 0, > 0. (6.2)
Propozit ie 1. Pentru orice f
n
, g
n
, f, g : IR variabile aleatoare, IR avem
1. f
n
P

n
f si g
n
P

n
g f
n
+ g
n
P

n
f + g
2. f
n
P

n
f f
n
P

n
f
3. f
n
P

n
f si f
n
P

n
g f = g, P a.s.
28
Demonstrat ie. 1. Avem
|f
n
+ g
n
(f + g)| = |(f
n
f) + (g
n
g)| |f
n
f| +|g
n
g|
de unde scriem
(|f
n
f| <

2
) (|g
n
g| <

2
) (|f
n
+ g
n
(f + g)| < ), > 0
si apoi, aplicand complementara
(|f
n
+ g
n
(f + g)| ) (|f
n
f|

2
) (|g
n
g|

2
)
Calculand probabilitatea ecarui eveniment din inegalitatea de mai sus, si folosind
faptul cunoscut ca P(A B) P(A) + P(B), obtinem
P(|f
n
+ g
n
(f + g)| ) P(|f
n
f|

2
) + P(|g
n
g|

2
), > 0
si trecem la limita pentru n :
0 lim
n
P(|f
n
+ g
n
(f + g)| ) lim
n
P(|f
n
f|

2
) + lim
n
P(|g
n
g|

2
) = 0
deci f
n
+ g
n
P

n
f + g.
3. Avem |f g| = |f f
n
(g f
n
)| |f
n
f| +|f
n
g|, de unde
(|f
n
f| <

2
) (|f
n
g| <

2
) (|f g| < )
(|f g| ) (|f
n
f|

2
) (|f
n
g|

2
)
si aplicand acelasi procedeu ca la punctul 1,
0 P(|f g| ) lim
n
P(|f
n
f|

2
) + lim
n
P(|f
n
g|

2
) = 0
deci P(|f g| ) = 0, pentru orice > 0 deci P(|f g| < ) = 1 pentru orice > 0,
de unde, trecand la limita dupa , P(|f g| = 0) = 1, adica P(f = g) = 1, ceea ce
inseamna ca f = g, P a.s.
Teorema 2. Fie (, F, P) - spatiu de probabilitate, f
n
, f : IR, variabile aleatoare,
n IN

. Daca f
n
P a.s.

n
f atunci f
n
P

n
f. Reciproc nu este adevarat.
Demonstrat ie. Fie (A
n
)
n1
F.
P(lim
n
A
n
) = P

n=1

k=n
A
k

= lim
n
P

k=n
A
k

lim
n
sup
kn
P(A
n
)
29
deoarece
P

k=n
A
k

P(A
k
), k n.
Fie > 0 arbitrar, A
n
= (|f
n
f| ). Atunci
lim
n
A
n
, f
n
() f() lim
n
A
n
(f
n
f)
de unde
P(lim
n
A
n
) P(f
n
f) = 0 lim
n
P(A
n
) = 0 f
n
P

n
f.
6.3 Convergenta in repartitie
Fie (, F, P) spatiu de probabilitate, f
n
, f : IR variabile aleatoare, n IN

.
Denit ie 4. Spunem ca (f
n
)
n1
converge in repartitie catre f, si scriem f
n
rep

n
f daca
F
f
n
(x)
n
F
f
(x), x punct de continuitate pentru F
f
. (6.3)
Teorema 3. Daca f
n
P

n
f atunci f
n
rep

n
f.
Demonstrat ie. Fie x IR punct de continuitate pentru F
f
, si > 0. Avem
(f < x ) = (f < x ) [(|f
n
f| ) (|f
n
f| < )] =
= [(f < x ) (|f
n
f| )] [(f < x ) (f < f
n
< f + )]
(|f
n
f| ) (f < x ) (f
n
< f + ) (|f
n
f| ) (f
n
< x + ) =
deci
(f < x ) (|f
n
f| ) (f
n
< x)
de unde
P(f < x ) P(|f
n
f| ) + P(f
n
< x)
P(f < x ) lim
n
P(|f
n
f| ) + lim
n
F
f
n
(x)
adica avem
F
f
(x ) lim
n
F
f
n
(x) (6.4)
Acum
(f
n
< x) = (f
n
< x) [(|f
n
| ) (|f
n
f| < )] =
= [(f
m
< x) (|f
n
f| )] [(f
n
< x) (|f
n
f| < )]
(f
n
f| ) (f < x + )
deci
F
f
n
(x) = P(f
n
< x) P(|f
n
f| )+P(f < x+) = P(|f
n
f| )+F
f
(x), n IN, > 0
30
Trecand la limita superioara dupa n avem
lim
n
F
f
n
(x) lim
n
P(|f
n
f| ) + F
f
(x + )
si obtinem
lim
n
F
f
n
(x) F
f
(x + ) (6.5)
Din (6.4) si (6.5) obtinem
F
f
(x ) lim
n
F
f
n
(x) lim
n
F
f
n
(x) F
f
n
(x) F
f
(x + )
si, din continuitatea functiei de repartitie in x, pentru 0,
F
f
(x) lim
n
F
f
n
(x) lim
n
F
f
n
(x) F
f
(x)
de unde obtinem
lim
n
F
f
n
(x) = F
f
(x), x punct de continuitate f
n
rep

n
f
6.4 Convergenta in medie
Fie (, F, P) spatiu de probabilitate, f
n
, f : IR variabile aleatoare, M(f
n
), M
r
(f
n
) si
M
r
(f) < .
Denit ie 5. Spunem ca (f
n
)
n1
converge in medie de ordin r catre f, si scriem f
n
m
r

n
f
daca
lim
n
M(|f
n
f|
r
) = 0 (6.6)
Propozit ie 2. Daca f
n
m
r

n
f atunci f
n
P

n
f. Reciproc nu este adevarat.
Demonstrat ie. Avem, cu inegalitatea Markov (5.1)
P(|g| ) = P(|g|
r

r
)
M
r
(g)

r
, > 0
unde g = f
n
f. Atunci
0 P(|f
n
f| )
M
r
(f
n
f)

r
=
M(|f
n
f|
r
)

r

n
0
deci
lim
n
P(|f
n
f| ) = 0, > 0 f
n
P

n
f.
31
6.5 Legea Numerelor Mari
Sa consideram o urna care contine a bile albe si b bile negre, si extragem n bile, notand cu
f
(n)
numarul de bile albe extrase. Observam ca f
(n)
B)n, p, unde
p =
a
a + b
, q =
b
a + b
= 1 p
M(f
(n)
) = np, D
2
(f
(n)
) = npq
Aplicand Inegalitatea Cebasev (5.2) pentru variabila aleatoare
f
(n)
n
obtinem
P

f
(n)
n
p

D
2

f
(n)
n

2
=
pq
n
2

n
0
adica
f
(n)
n
p
P

n
0
f
(n)
n
P

n
p
Notam acum cu f
n,k
- numarul de bile albe extrase la extragerea k, k = 1, n, care are
repartitia
f
n,k
:

0 1
q p

si M(f
n,k
) = p, D
2
(f
n,k
) = pq.
In plus
f
(n)
=
n

k=1
f
n,k
si introducand in relatiile anterioare,
1
n
n

k=1
f
n,k
p
P

n
0
de unde
1
n
n

k=1
f
n,k

1
n
n

k=1
p =
1
n
n

k=1
(f
n,k
p) =
1
n
n

k=1
[f
n,k
M(f
n,k
)]
P

n
0
Denit ie 6. Fie (f
n
)
n1
sir de variabile aleatoare reale. Sirul (f
n
)
n1
se numeste stabil in
sens slab daca
1
n
n

k=1
[f
k
M(f
k
)]
P

n
0 (6.7)
si se numeste stabil in sens tare daca
1
n
n

k=1
[f
k
M(f
k
)]
Pa.s.

n
0 (6.8)
32
Teorema 4 (Markov). Fie (f
n
)
n
sir de variabile aleatoare astfel incat
lim
n
1
n
2
D
2

k=1
f
k

= 0. (6.9)
Atunci (f
n
)
n
este stabil in sens slab.
Demonstrat ie. Fie > 0. Aplicand Inegalitatea Cebasev pentru g =
1
n

n
k=1
f
k
, obtinem
P

1
n
n

k=1
(f
k
M(f
k
))

D
2

1
n

n
k=1
f
k

2
=
1
n
2
D
2
(

n
k=1
f
k
)

2
=
1
n
2

2
D
2

k=1
f
k

care tinde la 0 cu (6.9), pentru orice > 0.


Corolar 3. Fie (f
n
)
n1
variabile aleatoare necorelate, astfel incat
lim
n
1
n
2
n

k=1
D
2
(f
k
) = 0. (6.10)
Atunci (f
n
)
n
este stabil in sens slab.
Demonstrat ie. Variabilele ind necorelate, avem
D
2

k=1
f
k

=
n

k=1
D
2
(f
k
)
si, introducand in (6.9) obtinem imediat (6.10).
Corolar 4. Fie (f
n
)
n1
variabile aleatoare reale necorelate, astfel incat
D
2
(f
n
) A < , n 1.
Atunci (f
n
)
n
este stabil in sens slab.
Demonstrat ie. Avem
lim
n
1
n
2
n

k=1
D
2
(f
k
)
1
n
2
n

k=1
A = lim
n
A
n
= 0
deci, aplicand Corolarul anterior obtinem rezultatul cerut.
Teorema 5 (Hincin). Fie (f
n
)
n1
variabile aleatoare reale, independente si identic repar-
tizate cu functia de repartitie F si media m < . Atunci sirul (f
n
)
n
este stabil in sens
slab.
Demonstrat ie. Fie > 0, n IN, oarecare.
u
k
def
=

f
k
, |f
k
| n
0, |f
k
| > n
, v
k
def
=

0, |f
k
| n
f
k
, |f
k
| > n
, f
k
= u
k
+ v
k
, k 1
33
Avem
M(u
k
) =

n
n
xdF(x) = m
n

n

xdF(x) = M(f
k
) = m
D
2
(u
k
) = M
2
(u
k
) M
2
(u
k
) = M
2
(u
k
) m
2
n
M
2
(u
k
) =

n
n
x
2
dF(x) =
=

n
n
|x| |x|dF(x) n

n
n
|x|dF(x) n

|x|dF(x) nb
M

1
n
n

k=1
u
k

=
1
n
n

k=1
M(u
k
) =
1
n
nm
n
= m
n
D
2

1
n
n

k=1
u
k

=
1
n
2
n

k=1
D
2
(u
k
)
nb
n
2
=
b
n
P

1
n
n

k=1
u
k
m
n

D
2

1
n

n
k=1
u
k

2

b
n
2
Observatie: Fie f, g - variabile aleatoare. Avem
|f| < a, |g| < b |f + g| < |f| +|g| < a + b
deci
|f + g| a + b |f| asau|g| b
adica, in termeni de evenimente,
(|f + g| a + b) (|f| a) (|g| b)
de unde
P(|f + g| a + b) P(|f| a) + P(|g| b)
Aplicam aceasta observatie pentru f =
1
n

n
k=1
u
k
m
n
, g = m
n
m, a = b = :
P

1
n
n

k=1
u
k
m

1
n
n

k=1
u
k
m
n

+ P(|m
n
m| )
dar
P(|m
n
m| ) = 0, n n
0
datorita convergentei lui m
n
la m. Atunci
P

1
n
n

k=1
u
k
m

b
n
2

n
0
1
n
n

k=1
u
k
m
P

n
0 (6.11)
Acum calculam
P(v
k
= 0) =

(|x|n)
dF(x) =
1
n

|x|n
ndF(x)
1
n

(|x|n)
|x|dF(x)
1
n

2
=

n
34
P(v
k
= 0)
n

k=1
P(v
k
= 0)
n

k=1

n
= (6.12)
Acum aplicam din nou observatia anterioara pentru f =
1
n

n
k=1
u
k
m, g =
1
n

n
k=1
v
k
:
P

1
n
n

k=1
f
k
m

= P

1
n
n

k=1
u
k
m +
1
n
n

k=1
v
k

1
n
n

k=1
u
k
m

+ P

1
n

k=1
v
k

1
n
n

k=1
u
k
m

+ P

1
n
n

k=1
v
k
= 0

(6.11),(6.12)

b
n
2
+ , > 0
Am aratat astfel ca
1
n

n
k=1
f
k
P

n
m, adica sirul (f
n
)
n
este stabil in sens slab.
Teorema 6 (Kolmogorov). Fie (f
n
)
n
variabile aleatoare de dispersii nite, independente
astfel incat

n=1
1
n
2
D
2
(f
n
) < (6.13)
Atunci (f
n
)
n
este stabil in sens tare.
35
Capitolul 7
Cursul VII
7.1 Functia caracteristica
Fie F functie de repartitie pe IR
k
.
Denit ie 1. Aplicatia
F
: IR
k
C,

F
(t) =

IR
k
e
i<t,x>
dF(x), t IR
k
(7.1)
se numeste functia caracteristica a functiei de repartitie F.
Reamintim ca daca t = (t
1
, ..., t
k
)

IR
k
, x = (x
1
, ..., x
k
)

IR
k
, atunci
< t, x >=
k

i=1
t
i
x
i
, ||x|| =

< x, x > =

i=1
x
2
k
De asemenea,
e
i
= cos + i sin
si

...

(u + iv)dF =

udF + i

...

vdF
Denit ie 2. Fie (, F, P) spatiu de probabilitate, f = (f
1
, ..., f
n
)

: IR variabila
aleatoare, F
f
functia sa de repartitie, numim functia caracteristica a v.a f functia car-
acteristica a repartitiei F
f
, notata
f
: IR
k
C, data de relatia

f
(t) =

IR
k
e
i<t,x>
dF
f
(x), t IR
k
(7.2)
In baza Teoremei 1 din 4.2 avem

f
(t) = M

e
i<t,f>

Observat ie 1. Fie f : IR o variabila aleatoare reala.


36
a) f - v.a. de tip continuu, cu densitatea
f
. Atunci

f
(t) =

IR
e
itx

f
(x)dx (7.3)
b) f - v.a. discreta, f() = {x
i
IR| i I}, I - cel mult numarabila, p
i
= P(f = x
i
).

f
(t) =

iI
e
it
i
x
i
p
i
, t IR (7.4)
Exemplu 1. Fie variabila aleatoare binomiala f B
n,p
. Atunci P(f = k) = C
k
n
p
k
q
nk
,
k = 0, ..., n. Pe baza relatiei de denitie (7.4) avem
f
: IR C,

f
(t) =
n

k=0
e
itk
C
k
n
p
k
q
nk
=
n

k=0
C
k
n

pe
it

k
q
nk
=

pe
it
+ q

n
Exemplu 2. Fie variabila aleatoare f N(0, 1). Avem
f
: IR C, si cu relatia de
denitie (7.3) avem

f
(t) =
1

e
itx
1

2
e

x
2
2
dx
Scriem acum, folosind dezvoltarea functiei e
z
in serie,

f
(t) =
1

n=0
(itx)
n
n!
e

x
2
2
dx =
1

n=0
(it)
n
n!

x
n
e

x
2
2
dx =

n=0
(it)
n
n!
M
n
(f)
Acum, deoarece
M
n
(f) = 0, n par, si M
n
(f) = (2n 1)!!, n impar,

f
(t) =

n=0
(it)
2n
(2n)!
1 3 ... (2n 1) =

n=0
(it)
2n
(2n)!
(2n)!
2
n
n!
=

n=0

t
2
2

1
n!
= e

t
2
2
Deci daca f N(0, 1),
f
(t) = e

t
2
2
.
Exemplu 3. Fie f N(m,
2
). Atunci
f
: IR C, si

f
(t) =

e
itx

f
(x)dx =
1

e
itx
e

(xm)
2
2
2
dx
si efectuand schimbarea de variabila
xm

= u, dx = du:

f
(t) =
1

e
it(u+m)
e

u
2
2
du = e
itm

e
itu
e

u
2
2
du
Ex.2
= e
itm
e

(t)
2
2
= e
itm
t
2

2
2
.
Propozit ie 1. Fie F o functie de repartitie pe IR
k
,
F
functia sa caracteristica. Atunci
1.
F
(0) = 1
37
2. |
F
(t)| 1, t IR
k
3.
F
(t) =
F
(t)
4.
F
este uniform continua
5. Daca (, F, P) este spatiu de probabilitate, f, g : IR
k
variabile aleatoare inde-
pendente, atunci

f+g
(t) =
f
(t)
g
(t), t IR
k
. (7.5)
Demonstrat ie. 1.

F
(0) =

IR
k
e
i<0,x>
dF(x) =

IR
k
dF(x) = 1
2.
|
F
(t)| =

IR
k
e
i<t,x>
dF(x)

IR
k
|e
i<t,x>
|dF(x) = 1,
deoarece |e
i<t,x>
| = 1.
3.

F
(t) = M

e
i<t,f>

= M(cos(< t, f >) + i sin(< t, f >)) =


= M(cos(< t, f >)) iM(sin(< t, f >)) = M(cos(< t, f >)) + iM(sin(< t, f >)) =
= M(cos(< t, f >) + i sin(i < t, f >)) = M(e
i<t,f>
) =
F
(t).
4. Fie t
1
, t
2
IR
k
.

F
(t
1
)
F
(t
2
) =

IR
k
e
i<t
1
,x>dF(x)

IR
k
e
i<t
2
,x>
dF(x) =
=

IR
k
e
i<t
2
,x>

e
i<t
1
t
2
,x>
1

dF(x)
Observatie: |e
i
1| min(||, 2), IR. Intr-adevar,

e
i
1

|e
i
| + 1 = 1 + 1 = 2,
si
|e
i
1| = | cos +i sin 1| =

2 sin
2

2
+ 2 sin

2
cos

2
i

= 2

sin

2

i cos

2
sin

2

=
= 2

sin

2

2
||
2
= ||
Revenind, avem
|
F
(t
1
)
F
(t
2
)|

IR
k

e
i<t
2
,x>

e
i<t
1
t
2
,x>
1

dF(x)

IR
k
min(| < t
1
t
2
, x > |, 2)dF(x)
38
Fie acum > 0, ||t
1
t
2
|| . Atunci
|
F
(t
1
)
F
(t
2
)|

IR
k
min(| < t
1
t
2
, x > |, 2)dF(x)

IR
k
min(||t
1
t
2
||||x||, 2)dF(x)

IR
k
min(||x||, 2)dF(x)
0
0
5.

f
1
+f
2
(t) = M

e
i<t,f
1
+f
2
>

= M

e
i<t,f
1
>+i<t,f
2
>

= M

e
i<t,f
1
>
e
i<t,f
2
>

indep.
=
= M

e
i<t,f
1
>

e
i<t,f
2
>

=
f
1
(t)
f
2
(t)
Propozit ie 2. Fie (, F, P) spatiu de probabilitate, f : IR variabila aleatoare,
M
n
(f) < . Atunci
f
este derivabila de n ori, si

(n)
f
(t) = i
n

x
n
e
itx
dF
f
(x), t IR (7.6)
Demonstrat ie. Este sucient sa aratam pentru n = 1.

f
(t + h)
f
(t)
h
=
1
h

e
i(t+h)x
dF
f
(x)

e
itx
dF
f
(x)

e
itx

e
ihx
1

h
dF
f
(x) =
=

e
itx

e
ihx
1
ihx
ixdF
f
(x)

|x|dF
f
(x)<

h0

e
itx
ixdF
f
(x)
Asadar avem

f
(t) = i

xe
itx
dF
f
(x).
Observat ie 2. In particular, pentru t = 0, din (7.6) avem

(n)
f
(0) = i
n

x
n
dF
f
(x) = i
n
M
n
(f)
adica
M
n
(f) =
1
i
n

(n)
f
(0) (7.7)
Daca f = (f
1
, ..., f
k
)

: IR
k
variabila aleatoare, M
(r
1
,...,r
k
)
(f) < , se deduce ca
M
(r
1
,...,r
k
)
(f) =
1
i
r
1
+...+r
k


r
1
+...+r
k

f
(t
1
, ..., t
k
)
t
r
1
1
t
r
k
k

t
1
=...=t
k
=0
(7.8)
39
Exemplu 4. Fie f B
n,p
. Sa calculam M(f) si D
2
(f). Se stie de la Exemplul 1 ca

f
(t) = (pe
it
+ q)
n
. Atunci

f
(t) = npi e
it
(pe
it
+ q)
n1

f
(t) = npi
2
e
it
(pe
it
+ q)
n1
+ np i e
it
(n 1)p i e
it
(pe
it
+ q)
n2

f
(0) = npi,

f
(0) = np n(n 1)p
2
M(f) =
1
i

f
(0) =
npi
i
= np
M
2
(f) =
1
i
2

f
(0) = np + n(n 1)p
2
D
2
(f) = M
2
(f) M
2
(f) = np + n(n 1)p
2
n
2
p
2
= np(1 p) = npq
Teorema 1 (Teorema de Inversiune). Fie F o functie de repartitie pe IR,
F
functia sa
caracteristica. Atunci, x
1
, x
2
IR puncte de continuitate pentru F cu x
1
< x
2
, avem
F(x
2
) F(x
1
) =
1
2

e
itx
1
e
itx
2
it

F
(t)dt (7.9)
(Transformata Fourier)
Corolar 5. Fie (, F, P) spatiu de probabilitate, f : IR variabila aleatoare de tip
continuu,
f
- absolut sumabila (

|
f
(t)|dt < ). Atunci

f
(x) =
1
2

e
itx

f
(t)dt (7.10)
Demonstrat ie. Fie F
f
functia de repartitie a lui f, x IR oarecare, h > 0.
F
f
(x + h) F
f
(x)
h
(7.9)
=
1
2

e
itx
e
it(x+h)
ith

f
(t)dt =
=
1
2

e
itx

1 e
ith
ith

f
(t)dt

|
f
(t)|dt<

h0
1
2

e
itx
(t)dt
deci

f
(x) = F

f
(x) =
1
2

e
itx

f
(t)dt
Corolar 6 (Teorema de Unicitate). Functia caracteristica determina in mod unic repartitia
din care provine.
Demonstrat ie. In relatia (7.9) notam x
2
= x - punct de continuitate pentru F, si facem
x
1
. Avem
F(x) = lim
x
1

1
2

e
itx
1
e
itx
it

F
(t)dt (7.11)
40
Presupunem ca

F, astfel incat

F
=
F
. Fie C - multimea punctelor de continuitate pentru
F, atunci IR \ C. este cel mult numarabila. Asemanator avem

F(x) = lim
x
1

1
2

e
itx
1
e
itx
it

F
(t)dt (7.12)
pentru orice x

C - multimea punctelor de continuitate ale lui

F, IR\

C - cel mult numarabila.


Din (7.11) si (7.12) obtinem

F(x) = F(x), x C

C. Dar IR \ (C

C) este cel mult
numarabila, de unde obtinem ca C

C este densa. Folosind faptul ca F si

F sunt crescatoare
si egale pe o multime densa, rezulta ca F si

F coincid pe intreg domeniul.
41
Capitolul 8
Cursul VIII
8.1 Convergenta in repartitie si legatura cu functia car-
acteristica.
Fie F
n
, F : IR
n
[0, 1], n IN

.
Denit ie 1. Spunem ca (F
n
)
n1
converge in sens slab la F, F
n
slab

n
F daca
F
n
(x)
n
F(x), x IR
m
.
Observat ie 1. Pentru f
n
, f : IR
m
variabile aleatoare, n IN

, f
n
rep

n
f daca
F
f
n
slab

n
F
f
.
Observat ie 2. F
n
slab

n
F

IR
m
h(x)dF
n
(x)
n

IR
m
h(x)dF(x), h : IR
m
IR,
continua si marginita.
Teorema 1. 1. F
n
, F functii de repartitie pe IR
m
, n IN

,
n
, functii caracteristice.
Atunci
F
n
slab

n
F
n
(t)
n
(t), t IR
m
2. Daca (
n
)
n1
sunt functii caracteristice, iar (F
n
)
n1
sunt functiile de repartitie core-
spunzatoare, cu
n
(t)
n
(t), t IR
m
, - continua in t = 0, atunci F
n
slab

n
F, F - functia de repartitie corespunzatoare lui .
Demonstrat ie. 1. Fie t IR
m
, h
t
: IR
m
IR, g
t
: IR
m
IR, h
t
(x) = cos(tx),
g
t
(x) = sin(tx), h
t
, g
t
continue si marginite. Dar, prin ipoteza avem F
n
slab

n
F.
Conform cu Observatia 4:

IR
m
cos < t, x > dF
n
(x)

IR
m
cos < t, x > dF(x)

IR
m
sin < t, x > dF
n
(x)

IR
m
sin < t, x > dF(x)
42
deci

IR
m
cos < t, x > dF
n
(x) + i

IR
m
sin < t, x > dF
n
(x)

IR
m
cos < t, x > dF(x) + i

IR
m
sin < t, x > dF(x)
adica

IR
m
(cos < t, x > +i sin < t, x >)dF
n
(x)

IR
m
(cos < t, x > +i sin < t, x >)dF(x)
si, mai departe,

IR
m
e
i<t,x>
dF
n
(x)

IR
m
e
i<t,x>
dF(x)
Rezulta

n
(t)
n
(t)
8.2 Teorema Limita Centrala
Observat ie 3. Densitatea de repartitie a repartitiei N(0, 1) este
(x) =
1

2
e

x
2
2
, x IR (8.1)
iar functia de repartitie a lui N(0, 1) este
: IR [0, 1], (x) =
1

t
2
2
dt (8.2)
se numeste functia lui Laplace. Avem
(x) = 1 (x), x IR (8.3)
Intr-adevar,
(x) =
1

t
2
2
dt = 1
1


x
e

t
2
2
dt
t=u
= 1
1


x
e

u
2
2
(1)du =
= 1
1

t
2
2
dt = 1 (x)
Observat ie 4. Daca g este o variabila aleatoare cu repartitia N(0, 1), atunci
g
(t) = e

t
2
2
.
In plus, daca a, b IR, a = 0, atunci f = ag + b sin N(b, a
2
). Avem, intr-adevar:

f
(t) = M

e
itf

= M

e
it(ag+b)

= M

e
i(at)g
e
itb

= e
itb
M

e
i(at)g

= e
itb

g
(at) = e
itb
a
2
t
2
2
Deoarece functia caracteristica determina in mod unic repartitia obtinem ca f N(b, a
2
).
43
Fie (, F, P) spatiu de probabilitate, f
n
: IR variabile aleatoare, n IN

. Pre-
supunem ca f
1
, ..., f
n
sunt independente, cu D
2
(f
n
) < , n 1.
Notam m
k
= M(f
k
),
2
k
= D
2
(f
k
), F
k
- functia de repartitie a lui f
k
, k IN

,
f
(n)
def
= f
1
+ ... + f
n
, n IN

(8.4)
m
(n)
def
= M(f
(n)
) = M

k=1
f
k

=
n

k=1
M(f
k
) =
n

k=1
m
k
. (8.5)

2
(n)
def
= D
2
(f
(n)
) = D
2

k=1
f
k

=
n

k=1
D
2
(f
k
) =
n

k=1

2
k
(8.6)
S
n
def
=
1

(n)
n

k=1
(f
k
m
k
) =
f
(n)
m
(n)

(n)
(8.7)
S
n
se numeste abaterea redusa a lui (f
n
)
n1
.
> 0,

n
()
def
=
1

2
(n)
n

k=1

{xIR| |xm
k
|
(n)
}
(x m
k
)
2
dF
k
(x) (8.8)
Teorema 2 (Teorema Limita Centrala). Cu notatiile anterioare avem:
S
n
rep

n
f N(0, 1), si lim
n
max
1kn

2
k

2
(n)
= 0 lim
n

n
() = 0, > 0 (8.9)
Demonstrat ie. Lipseste.
Corolar 7. Fie (f
n
)
n1
variabile aleatoare independente, identic repartizate, de dispersii
nite. Atunci
S
n
ref

n
f N(0, 1).
Demonstrat ie. Aratam ca
n
()
n
0, > 0. Avem m
k
= M(f
k
) = m,
2
k
= D
2
(f
k
) =

2
, deci

2
(n)
=
n

k=1

2
k
=
n

k=1

2
= n
2
In plus, f
k
= f, k IN

. Atunci

n
() =
1
n
2
n

k=1

(|xm|

n)
(xm)
2
dF(x) =
1

(|xm|

n)
(xm)
2
dF(x)
n
0, > 0
de unde, cu T.L.C. obtinem ca S
n
rep

n
f N(0, 1).
Observat ie 5. S
n
rep

n
f N(0, 1) implica

F
n
(x) = P(S
n
< x)
n
(x), x IR
unde

F
n
- functia de repartitie a lui S
n
.
44
Observat ie 6. Pentru a, b IR, a < b avem
P(a S b) =

F
n
(b)

F
n
(a) (b) (a) (8.10)
Corolar 8 (Teorema Moivre - Laplace). Fie (f
n
)
n1
un sir de variabile aleatoare reale
independente, cu repartitia
f
n
:

0 1
q p

, p (0, 1), p + q = 1
Atunci
f
1
+ ... + f
n
np

npq
rep

n
f N(0, 1) (8.11)
Demonstrat ie. Avem m
k
= M(f
k
) = p de unde obtinem
m
(n)
=
n

k=1
m
k
= np

2
k
= M
2
(f
k
) M
2
(f
k
) = p p
2
= p(1 p) = pq

2
(n)
=
n

k=1

2
k
=
n

k=1
pq = npq
S
n
=
f
1
+ ... + f
n
np

npq
Conform corolarului precedent S
n
rep

n
f N(0, 1).
Observat ie 7. Daca f este o variabila aleatoare cu repartitia B
n,p
, atunci
f np

npq
rep

n
g N(0, 1) (8.12)
Ne plasam in Th. Moivre Laplace.

f
1
+...+f
n
(t) = M(e
it(f
1
+...+f
n
)
) = M

j=1
e
itf
j

=
n

j=1
M(e
itf
j
) =
=
n

j=1

f
j
(t) =
n

j=1
(pe
it
+ q) = (pe
it
+ q)
n
deci f
1
+ ... + f
n
B
n,p
.
Observat ie 8. Daca f B
n,p
, atunci putem considera ca f N(np, npq), pentru n sucient
de mare:
f np

npq
= g N(0, 1) f =

npqg + np N(np, npq).
45
Corolar 9. Fie (f
n
)
n1
un sir de variabile aleatoare reale independente, > 0, astfel incat
M(|f
k
m
k
|
2+
) < , k IN

. (8.13)
Daca

n
() =
1

2+
(n)
n

k=1
M(|f
k
m
k
|
2+
)
n
0 (8.14)
atunci
S
n
rep

n
f N(0, 1).
Demonstrat ie.

n
() =
1

2
(n)
n

k=1

(|xm
k
|>
(n)
)
(x m
k
)
2
dF
k
(x) =
=
1

2+
(n)
n

k=1

(|xm
k
|
(n)
)
(x m
k
)
2

(n)
dF
k
(x)

2+
(n)
n

k=1

(|xm
k
|
(n)
)
(x m
k
)
2
|x m
k
|

dF
k
(s) =
=
1

2+
(n)
n

k=1

(|xm
k
|
(n)
)
|x m
k
|
2+
dF
k
(x)
1

2+
(n)
n

k=1

|x m
k
|
2+
dF
k
(x) =
=
1

(n)
n

k=1
M(|f
k
m
k
|
2+
) =
1

n
()
n
0
Acum, aplicand T.L.C. obtinem concluzia.
Corolar 10 (Criteriul Leapunov). Fie (f
n
)
n1
un sir de variabile aleatoare reale indepen-
dente astfel incat
3
k
= M(|f
k
m
k
|
3
) < , k IN

. Daca
lim
n

(n)

(n)
= 0,
3
(n)
=
n

k=1

3
k
, (8.15)
atunci
S
n
rep

n
f N(0, 1).
Demonstrat ie. Se ia = 1 in Corolarul anterior.
46
Capitolul 9
Cursul IX
9.1 Elemente de statistica descriptiva
Statistica matematica se ocupa cu descrierea si analiza numerica a fenomenelor aleatoare,
evidentiind particularitati ale acestora privind volumul, structura, evolutia, precum si legile
probabiliste care le guverneaza.
Studiile statistice parcurg urmatoarele 4 etape:
1. denirea obiectului aleatoriu studiat (precizarea unitatilor statistice si intocmirea ches-
tionarului, formularea intrebarilor)
2. observarea fenomenului studiat conform celor planicate la etapa precedenta (in aceasta
etapa - culegerea datelor)
3. descrierea statistica - cuprinde gruparea datelor statistice (a valorilor observate), cal-
culul unor indicatori numerici pe baza datelor observate pentru a obtine informatii
privind fenomenul aletor studiat si a putea formula ipoteze privind legile de probabil-
itate care guverneaza fenomenele aleatoare studiate
4. modelarea matematica - pe baza datelor observate astfel in cat in studierea modelului
matematic realizat sa folosim ca instrument Teoria probabilitatilor.
Primele doua etape au un caracter preliminar, etapa a treia este denumita si statistica de-
scriptiva, iar etapa a patra se numeste statistica matematica, sau inferenta statistica (ratio-
nament statistic). In cadrul acestei etape se estimeaza parametrii care apar sau se formuleaza
ipoteze privind legile de probabilitate care guverneaza fenomenele aleatoare studiate si apoi
aceste ipoteze se verica prin diverse metode de statistica matematica.
9.2 Elemente de baza de statistica
Denit ie 1. O colectivitate (de lucruri, inte, evenimente, etc) supusa unui studiu statistic
se numeste populatie statistica. Elementele sale se numesc indivizi sau unitati statistice. Car-
dinalul unei populatii statistice se numeste volum. O proprietate care este comuna tuturor
indivizilor se numeste caracteristica. O caracteristica, daca se poate masura, se numeste
47
caracteristica cantitativa, iar daca este data printr-o insusire se numeste caracteristica cali-
tativa.
O populatie P se modeleaza prin spatiul de probabilitate (, F, P), unde = P, iar
o caracteristica a populatiei P este asimilata cu o variabila aleatoare f : X, unde
(X, X) este camp de evenimente.
Exemplu 1. Vrem sa studiem multimea elevilor unui liceu din punct de vedere al inaltimii.
Multimea elevilor acelui liceu este o populatie statistica, ecare elev este un individ, sau
o unitate statistica, caracteristica in studiu f este inaltimea, P este multimea elevilor, si
f : P IR, f ind o caracteristica de tip cantitativ.
Exemplu 2. Ne propunem sa studiem multimea locuitorilor orasului Craiova din punct de
vedere al culorii ochilor. P este multimea locuitorilor Craiovei. Fiecare locuitor este un
individ, sau o unitate statistica.
X = {negru, albastru, verde, caprui}, f : P X.
Pentru P avem f() X, si f e caracteristica de tip calitativ.
Denit ie 2. Daca o caracteristica f primeste o multime cel mult numarabila de valori
spunem ca ea este discreta. Daca o caracteristica f ia valori intr-un interval (a, b), atunci f
se numeste caracteristica de tip continuu.
Din punct de vedere al observarii fenomenului aleator studiat avem urmatoarele tipuri
de observare (culegere a datelor):
1. Observarea totala - sunt chestionati toti indivizii populatiei P. Spunem ca am
efectuat recensamantul acelei populatii.
2. Observarea partiala - se studiaza (chestioneaza) o submultime stricta a populatiei
(se efectueaza un sondaj, se face o selectie obtinand un esantion (
1
, ...,
n
), de volum
n). Dupa modul de prelevare a indivizilor esantionului
(n)
= (
1
, ...,
n
) sondajele
sunt:
repetate sau bernoulliene atunci cand individul prelevat la un moment dat este
reintrodus in populatie inaintea prelevarii urmatorului individ
ne-repetate sau ne-bernoulliene atunci cand individul chestionat nu revine in
populatie
3. Observarea curenta - indivizii sunt chestionati pe masura ce intra in populatie
4. Observarea periodica - indivizii unei populatii sunt chestionati la intervale de timp
bine stabilite dinainte.
48
9.3 Tabele de valori observate
9.3.1 Date de selectie, valori de selectie, sondaje
Fie P o populatie, (, F, P) spatiul de probabilitate asociat, si

P P,

P = {
1
, ...,
N
}.
Fie f : X, (X, X) camp de evenimente, f o caracteristica a lui P. Fie
x

1
= f(
1
)
x

2
= f(
2
)
...
x

N
= f(
N
)
valorile observate (valorile de selectie, de sondaj, datele statistice ) bazate pe esan-
tionul
(N)
= (
1
, ...,
N
) corespunzator caracteristicii f. Un tabel
x

1
, x

2
, ..........., x

N
(*)
in care sunt trecute valorile observate in ordinea aparitiei lor se numeste tabel simplu sau
nesistematizat.
Atunci cand volumul esantionului este mare, pentru a ne putea forma o imagine cat mai
apropiata de realitate despre populatia statistica data, din punct de vedere al caracteristicii
f, trecem la sistematizarea valorilor observate.
Fie x
1
, ..., x
n
valorile distincte din tabelul (*), si notam k
i
numarul de indivizi din esan-
tionul
(N)
carora le corespunde valoarea x
i
, i = 1, n. Intocmim urmatorul tabel (tabel
sistematizat):
x
i
k
i
k
i
N
x
1
k
1
k
1
N
x
2
k
2
k
2
N
.
.
.
.
.
.
.
.
.
x
i
k
i
k
i
N
.
.
.
.
.
.
.
.
.
x
n
k
n
k
n
N
unde k
i
este frecventa absoluta a valorii x
i
, iar
k
i
N
este frecventa relativa a valorii x
i
.
Observat ie 1. k
1
+ k
2
+ ... + k
n
= N,
k
1
N
+ ... +
k
n
N
= 1.
Daca f este de tip continuu si ia valori in intervalul (a, b), consideram
a = a
0
< a
1
< .... < a
i1
< a
i
< a
i+1
< ... < a
m1
< a
m
= b
Intervalele (a
i1
, a
i
] le numim clase de valori. Atunci, putem sa sistematizam (*) pe baza
acestor clase intr-un tabel de felul urmator:
49
(a
i1
, a
i
] k
i
(a
0
, a
1
] k
1
(a
1
, a
2
] k
2
.
.
.
.
.
.
(a
i1
, a
i
] k
i
.
.
.
.
.
.
(a
n1
, a
n
] k
n
unde k
i
reprezinta numarul de valori care se aa in clasa (a
i1
, a
i
], k
1
+ ... + k
m
= N(**).
Acest tabel se numeste tabel sistematizat pentru seria de date (*), prin clase de valori.
Diferenta a
i
a
i1
= d
i
se numeste amplitudinea clasei (a
i1
, a
i
].
In practica, de multe ori, in loc de (**) se considera tabelul
t
i
k
i
t
1
k
1
t
2
k
2
.
.
.
.
.
.
t
i
k
i
.
.
.
.
.
.
t
n
k
n
unde t
i
=
a
i1
+a
i
2
.
Pentru a determina numarul claselor de valori dispunem de doua metode:
1. m = 1+
10
3
lgN - formula lui Sturges, pentru determinarea numarului de clase de valori.
In acest caz toate clasele din (**) au aceeasi amplitudine, adica a
1
a
0
= a
2
a
1
= ... =
a
m
a
m1
= d =
ba
m
. Daca (a, b) este innit, se ia d =
x
max
x
min
m
, a
i
= a+id, i = 0, m.
2. Luam d =
8
100
(x
max
x
min
), x
max
= max
i=1,n
x
i
, x
min
= min
i=1,n
x
i
, a
I
= a + id, i =
0, m.
Exemplu 3. Sa consideram un grup de 30 studenti. Vrem sa studiem acest grup din punct
de vedere al mediei obtinute la sfarsitul unui an de studiu.
x

1
= f(
1
) = 6,
x

2
= f(
1
) = 5,
.
.
.
x

30
= f(
1
) = 3,
Datele de selectie sunt:
6,5,2,6,9,10,8,3,6,7,4,7,6,7,8,7,6,7,8,6,8,6,4,4,6,5,9,5,5,3
Tabelul sistematizat obtinut este:
50
x
i
k
i
2 1
3 2
4 3
5 4
6 8
7 5
8 4
9 2
10 1
9.4 Reprezentarea graca a datelor 1-dimensionale
9.4.1 Reprezentarea prin batoane/bastonase
Pentru a realiza aceasta reprezentare trebuie sa realizam tabelul sistematizat dupa valorile
distincte si apoi reprezentam intr-un sistem cartezian, pe axa absciselor valorile de selectie
distincte, si apoi in dreptul ecareia se construieste pe verticala un segment cu lungimea
egala cu frecventa absoluta(relativa) corespunzatoare.
Observat ie 2. Atunci cand frecventele absolute sunt mari, lungimile segmentelor construite
se aleg proportionale cu frecventele absolute sau relative.
Figura 1 (reprezentarea datelor - schita k
i
versus x
i
)
Pentru exemplul precedent avem urmatoarea reprezentare (f N(6, ))
Figura 2 (datele din exemplul precedent)
9.4.2 Reprezentarea prin histograma
Atunci cand datele sunt grupate in clase de valori de amplitudini egale putem reprezenta
seria datelor statistice prin histograme. Pe axa Ox se reprezinta clasele si pe verticala, pentru
ecare, se construieste un dreptunghi cu baza pe clasa la care ne referim si inaltimea egala
cu frecventa absoluta a clasei.
Daca unim mijloacele bazelor superioare ale acestor dreptunghiuri prin segmente de
dreapta obtinem poligonul frecventelor seriei de date (*).
9.5 Sistematizarea datelor bidimensionale
Se considera o populatie statistica P, (, F, P) spatiul de probabilitate asociat si f, g doua
caracteristici. Dorim sa studiem populatia statistica din punct de vedere al caracteristicii
bidimensionale (f, g) (inaltime, greutate, de exemplu, in cazul populatiei unui oras).
Consideram

P = {
1
, ...,
N
} un esantion.
(x

i
, y

i
) = (f, g)(
i
) = (f(
i
), g(
i
)), i = 1, N ( )
Consideram x
1
, ..., x
m
ca ind valorile de selectie, distincte, relative la caracteristica f,
y
1
, ..., y
n
valorile de selectie, distincte, relative la caracteristica g.
51
Notam cu k
ij
frecventele absolute de aparitie ale perechilor de valori (x
i
, y
j
), i = 1, m, j =
1, n.
Valorile (***) se sistematizeaza dupa valorile distincte intr-un tabel, numit si tabel de
contingenta de forma:
f\g y
1
y
i
y
n
x
1
.
.
.
.
.
.
x
i
k
ij

.
.
.
.
.
.
x
m
k
m1
k
mj
k
mn
unde
m

i=1
n

j=1
k
ij
= N.
Pe baza valorilor din acest tabel se mai denesc urmatoarele frecvente marginale:
k
i
=
n

j=1
k
ij
, i = 1, m
k
j
=
m

i=1
k
ij
, j = 1, n
care satisfac relatia urmatoare:
m

i=1
k
i
=
n

j=1
k
j
= N
52
Capitolul 10
Cursul X
10.1 Caracteristici numerice ale distributiilor statistice
Fie P o populatie statistica, (, F, P) spatiul de probabilitate asociat, f : IR o
caracteristica,
(N)
= (
1
, ...,
N
)
N
un esantion de volum N.
Notam prin x

i
= f(
i
), i = 1, N datele statistice primare (valorile observate) si x
1
, ..., x
n
-
datele statistice distincte, cu frecventele absolute corespunzatoare k
1
, ..., k
n
(k
1
+...+k
n
= N).
Astfel, distributia statistica a l ui f este
f :

x
1
x
n
k
1
k
n

sau
f :

x
1
x
n
p
1
p
n

unde
p
i
=
k
i
N
, i = 1, n, (p
1
+ ...p
n
= 1)
Denit ie 1. Numim media distributiei statistice f sau media valorilor statistice primare x

i
valoarea:
x =
1
N
N

i=1
x

i
=
1
N
n

i=1
k
i
x
i
=
n

i=1
p
i
x
i
(10.1)
Denit ie 2. Numim moment de ordin r al distributiei statistice f media aritmetica a
puterilor r ale valorilor observate

r
=
1
N
N

i=1
x
N
i
=
1
N
n

i=1
k
i
x
r
i
=
n

i=1
kp
i
x
r
i
. (10.2)
Denit ie 3. Numim moment centrat de ordin r al distributiei statistice f cantitatea

r
=
1
N
N

i=1
(x

i
x)
r
=
1
N
n

i=1
k
i
(x
i
x)
r
=
n

i=1
k
i
p
i
(x
i
x)
r
. (10.3)
53
Momentul centrat de ordin doi se numeste dispersia distributiei statistice:

2
=
2
f
=
1
N
n

i=1
k
i
(x
i
x)
2
(10.4)
Observat ie 1. Avem urmatoarele:

2
f
=
1
N
n

i=1
(x
2
i
2xx
i
+ x
2
) =
2

2
1
(10.5)
Observat ie 2. Pentru n mare, calculul valorilor x,
2
f
poate destul de greu, de aceea vom
face urmatoarele notatii:
t

i
= x

i
a, a IR, xat , i = 1, N
de unde
N

i=1
t

i
=
N

i=1
x

i=1
a = t = x a
sau x = t + a, ceea ce ne duce la urmatorul tabel pentru calcularea mediei:
x
i
k
i
t
i
= x
i
a
x
1
k
1
t
1
= x
1
a
.
.
.
.
.
.
.
.
.
x
i
k
i
t
i
= x
i
a
.
.
.
.
.
.
.
.
.
x
n
k
n
t
n
= x
n
a
10.2 Corelatie si regresie
Corelatia studiaza legatura care exista intre o caracteristica dependenta si una sau mai
multe caracteristici independente. Regresia furnizeaza o metoda pentru a determina aceasta
relatie.
Fie P o populatie, f : P IR, g : P IR doua caracteristici,
(N)
= (
1
, ...,
N
) un
esantion, x

i
, y

i
, i = 1, n valori observate.
(f, g)(
i
) = (f(
i
), g(
i
)) = (x

i
, y

i
), i = 1, N
Fie (x
i
, y
i
), i = 1, m, j = 1, n datele statistice distincte, k
ij
frecventa absoluta a perechii
(x
i
, y
j
).
m

i=1
n

j=1
k
ij
= N, k
i
=
n

j=1
k
ij
, k
j
=
m

i=1
k
ij
f\g y
1
y
i
y
n
x
1
k
11
k
1j
k
1n
.
.
.
.
.
.
.
.
.
.
.
.
x
i
k
i1
k
ij
k
in
.
.
.
.
.
.
.
.
.
.
.
.
x
m
k
m1
k
mj
k
mn
54
Denit ie 4. Fie r
1
, r
2
IN. Scalarul

r
1
r
2
=
1
N
N

i=1
(x

i
)
r
1
(y

i
)
r
2
(10.6)
se numeste momentul de ordin r
1
r
2
al distributiei statistice bidimensionale (f, g). In plus,
avem si

r
1
r
2
=
1
N
m

i=1
n

j=1
x
r
1
i
y
r
2
j
(10.7)
Observat ie 3. Avem

r
1
0
=
1
N
m

i=1
n

j=1
k
ij
x
r
1
i
=
1
N
m

i=1
k
i
x
r
1
i
=
r
1f

0r
2
=
1
N
m

i=1
n

j=1
k
ij
y
r
2
j
=
1
N
n

j=1
k
j
y
r
2
j
=
r
2g
Denit ie 5. Scalarul

r
1
r
2
=
1
N
N

i=1
(x

i
x)
r
1
(y

i
y)
r
2
(10.8)
se numeste momentul centrat de ordin r
1
r
2
al distributiei bidimensionale (f, g). In plus

r
1
r
2
=
1
N
m

i=1
n

j=1
(x
i
x)
r
1
(y
j
y)
r
2
k
ij
(10.9)
Observat ie 4. Avem

11
=
11

10

01
Denit ie 6. Numim coecient de corelatie al caracteristicii bidimensionale (f, g) scalarul
r =

11

g
=

11

2
f

2
g
(10.10)
Observat ie 5. Deoarece
r =

m
i=1

n
j=1
k
ij
(x
i
x)(y
j
y)

m
i=1
k
i
(x
i
x)
2

n
j=1
k
j
(y
j
y)
obtinem ca |r| 1 si |r| = 1 daca si numai daca intre f si g exista o relatie de dependenta
liniara. Daca |r| = 0 atunci f si g sunt necorelate.
Denit ie 7. Numim dispersia lui g conditionata de f = x
i
, i = 1, m scalarul

2
g|x
i
=
1
k
i
n

j=1
k
ij
(y
j
y)
2
(10.11)
55
Analog, dispersia lui f conditionata de g = y
j
, j = 1, n este

2
f|y
j
=
1
k
j
m

i=1
k
ij
(x
i
x)
2
(10.12)
Numim media lui g conditionata de f = x
i
, i = 1, n scalarul
y
i
=
1
k
i
n

j=1
k
ij
y
j
(10.13)
iar media lui f conditionata de g = y
j
, j = 1, n este
x
j
=
1
k
j
m

i=1
k
ij
x
i
(10.14)
Numim dispersia lui g conditionata de f scalarul

2
g|f
=
1
N
m

i=1
k
i

2
g|x
i
(10.15)
iar dispersia lui f conditionata de g este

2
f|g
=
1
N
n

j=1
k
j

2
f|y
j
(10.16)
Denit ie 8. Curba y = y(x) pe care se gasesc punctele (x
i
, y
i
), i = 1, m se numeste
curba de regresie a lui g asupra lui f. Analog, curba x = x(y) pe care se gasesc punctele
( x
j
, y
j
), j = 1, n se numeste curba de regresie a lui f asupra lui g.
Consideram
y = y(x) = h(x,
1
, ...,
s
),
1
, ...,
s
IR parametri.
Vom determina parametrii
i
astfel incat functia H denita prin
H(
1
, ...,
s
) =
N

i=1
(y

i
h(x

i
,
1
, ...,
s
))
2
(10.17)
sa e minima. Observam ca
H(
1
, ...,
s
) =
m

i=1
n

j=1
k
ij
(y
j
h(x
i
,
1
, ...,
s
))
2
Parametrii (
1
, ...,
s
) se obtin ca solutie a sistemului
H

1
= 0, ...,
H

s
= 0. (10.18)
56
10.2.1 Drepte de regresie
Sa consideram acum ca ecuatia curbei de regresie a lui g asupra lui f este de forma
y = h(x; a, b) = ax + b,
caz in care curba de regresie este o dreapta sau o portiune de dreapta. Pentru a determina
a si b procedam ca mai sus, adica rezolvam sistemul:

H
a
= 0
H
b
= 0
unde
H(a, b) =
m

i=1
n

j=1
k
ij
(y
j
h(x
i
; a, b))
2
=
m

i=1
n

j=1
k
ij
(y
j
ax
i
b)
2
Inlocuind, obtinem sistemul

m
i=1

n
j=1
k
ij
x
i
(y
j
ax
i
b) = 0
2

m
i=1

n
j=1
k
ij
(y
j
ax
i
b) = 0

m
i=1

n
j=1
k
ij
x
i
y
j
x

m
i=1

n
j=1
k
ij
x
2
i
b

m
i=1

n
j=1
k
ij
x
i
= 0

m
i=1

n
j=1
k
ij
y
j
a

m
i=1

n
j=1
k
ij
x
i
b

m
i=1

n
j=1
k
ij
= 0
Inmultind ambele ecuatii cu
1
N
si tinand seama de denitiile momentelor de sondaj obtinem:


11

20
a
10
b = 0

01

10
a b = 0
=


20
a +
10
b =
11

10
a + b =
01
ceea ce conduce la
a = r

f
, b =
01

10
r = y r

f
x (10.19)
de unde se obtine ca dreapta de regresie a lui g asupra lui f are expresia
d
1
: y y = r

f
(x x) (10.20)
Analog dreapta de regresie a lui f asupra lui g are expresia
d
2
: x x = r

g
(y y) (10.21)
Observat ie 6. Daca r = 0 atunci dreptele de regresie sunt y = y respectiv x = x. Daca
r = 1 sau r = 1 atunci d
1
= d
2
.
Observat ie 7. Dreptele d
1
si d
2
trec prin G(x, y), centrul de greutate al norului de puncte
{(x
i
, y
j
) |i = 1, m, j = 1, n}.
57
Capitolul 11
Cursul XI
11.1 Caracteristici de sondaj
Fie P o populatie, (, F, P) spatiul de probabilitate asociat, f : IR o caracteristica.
Efectuam un sondaj(bernoullian),
(n)
= (
1
, ...,
n
), x
i
= f(
i
) valori de selectie. Aceste
valori pot privite ca valorile a n variabile aleatoare independente, identic repartizate cu f
unde
f
i
:
n
IR, i = 1, n f
i
(
(n)
) = f(
i
) = x
i
, i = 1, n
Denit ie 1. Fie r IN

. Variabila aleatoare
M
n,r
(f) =
1
n
m

i=1
f
r
i
(11.1)
se numeste moment de sondaj de volum n si ordin r corespunzator variabilei aleatoare f.
Numim medie de sondaj de ordin n variabila aleatoare
f =
1
n
n

i=1
f
i
(11.2)
Numim moment centrat de sondaj de volum n si ordin r corespunzator lui f variabila
aleatoare:
M
c
n,r
(f) =
1
n
n

i=1
(f
i
f)
r
(11.3)
Momentul centrat de sondaj de ordin 2 se numeste dispersie de sondaj de volum n corespun-
zatoare lui f si se noteaza cu S
2
n
:
S
2
n
=
1
n
n

i=1
(f
i
f)
2
(11.4)
Observat ie 1. Calcule elementare conduc la egalitatea:
S
2
n
=
1
n
n

i=1
f
2
i
f
2
= M
n,2
(f) f
2
(11.5)
58
Propozit ie 1. Daca M(f) = m, D
2
(f) =
2
, atunci
M(f) = m, D
2
(f) =

2
n
, M(S
2
n
) =
n 1
n

2
, D
2
(S
2
n
) =
(n 1)
2
n
3
M(f
4
)
(n 1)(n 3)
n
3

4
Demonstrat ie. Avem
M(f) = M

1
n
n

i=1
f
i

=
1
n
n

i=1
M(f
i
) = m
D
2
(f) = M((f m)
2
) = M

1
n
n

i=1
(f
i
m)
2

=
=
1
n
2
M

i=1
(f
i
m)
2
+ 2

1i<jn
(f
i
m)(f
j
m)

=
=
1
n
2
n

i=1
M((f
i
m)
2
) +
2
n
2

1i<jn
M(f
i
m)M(f
j
m) =
1
n
2
n
2
=
n

2
deoarece M(f
i
m) = M(f
j
m) = 0 iar M((f
i
m)
2
) =
2
.
Observat ie 2. Fie
(n)
= (
1
, ....,
n
)
n
si x
i
= f
i
(
(n)
) = f(
i
), i = 1, n Atunci,
M
n,r
(f)(
(n)
) =
1
n
n

i=1
f
r
i
(
(n)
) =
1
n
n

i=1
x
r
i
facem notatiile
m
r
=
1
n
n

i=1
x
r
i
, m
1
=
1
n
n

i=1
x
i
= x,
si
S
2
n
(
(n)
) =
1
n
n

i=1
(f
i
(
(n)
) f(
(n)
))
2
=
1
n
n

i=1
(x
i
x)
2
=
2
f
.
11.2 Elemente de teoria estimatiei punctuale
Fie P o populatie, modelata prin spatiul de probabilitate (, F, P), f : IR o variabila
aleatoare a carei repartitie o cunoastem, IR
k
. Fie F(, ) functia de repartitie
asociata, si functia de densitate (, ) daca f e de tip continuu, sau functia (, ) = P(f =
) daca f e de tip discret. se numeste spatiul parametrilor, iar se numeste
parametru.
Exemplu 1. Fie f N(m,
2
) o variabila aleatoare normala (de tip ontinuu). Atunci
= (m,
2
), = IR (0, ). Densitatea este:
(x; m,
2
) =
1

2
e

(xm)
2
2
2
59
Exemplu 2. Fie f P

, = (0, ), o variabila aleatoare de tip discret(Poisson).


(x; ) = P(f = x) =
e

x
x!
, x IN
Denit ie 2. Fie T : IR
n
IR
k
o functie masurabila. Atunci
T
n
= T(f
1
, ..., f
n
),
unde f
1
, ..., f
n
variabile aleatoare de sondaj de colum n corespunzatoare lui f, se numeste
estimator pentru parametrul . Daca
(n)
= (
1
, .., .
n
), x
i
= f
i
(
(n)
) = f(
i
), i = 1, n,
T
n
(
(n)
) = T(f
1
(
(n)
), ..., f
n
(
(n)
)) = T(x
1
, ..., x
n
)
se numeste estimatie a parametrului pe baza esantionului
(n)
.
Denit ie 3. Spunem ca estimatorul T
n
al parametrului este nedeplasat daca
M(T
n
) = , . (11.6)
Spunem ca T
n
este asimptotic nedeplasat pentru daca
lim
n
M(T
n
) = , . (11.7)
Denit ie 4. Spunem ca estimatorul T
n
este absolut corect pentru daca T
n
este nedeplasat
si
lim
n
(T
n
) = 0
k
(11.8)
Daca estimatorul T
n
este asimptotic nedeplasat si in plus are loc relatia (11.8), atunci T
n
se
numeste estimator corect pentru parametrul .
Observat ie 3. Daca k = 1, estimatorul T
n
este absolut corect daca
M(T
n
) = , si lim
n
D
2
(T
n
) = 0
si este corect daca
lim
n
M(T
n
) = , si lim
n
D
2
(T
n
) = 0
Observat ie 4. Daca f este o caracteristica, M(f) = m, D
2
(f) =
2
, M(f) = m, m IR,
atunci f este estimator nedeplasat pentru media teoretica m.
Dar, in plus, avem si D
2
(f) =

2
n
0 pentru n , deci f este chiar un estimator
absolut corect pentru media teoretica m.
Pentru

S
2
n
=
1
n 1
n

i=1
(f
i
f)
2
avem
M(

S
2
n
) = M

1
n 1
n

i=1
(f
i
f)
2

=
n
n 1
M

1
n
n

i=1
(f
i
f)
2

=
n
n 1
M(S
2
n
) =
=
n
n 1
n 1
n

2
=
2
, > 0
deci,

S
2
n
este estimator nedeplasat pentru dispersia teoretica
2
.
60
Pentru o caracteristica f : IR, si (; ) densitatea de repartitie (in cazul continuu),
respectiv functia de frecventa (in cazul discret), IR
k
. Daca f
1
, ..., f
k
sunt variabilele
aleatoare de sondaj de volum n corespunzatoare lui f, atunci densitatea de repartitie a lui
(f
1
, ..., f
n
) in cazul continuu, respectiv functia sa de frecventa in cazul discret, este
L : IR
n
IR, L(x
1
, ..., x
n
; ) =
n

j=1
(x
j
; ) (11.9)
deoarece f
1
, ..., f
n
sunt independente. Fie x
(n)
= (x
1
, ..., x
n
) IR
n
.
Denit ie 5. Functia L(x
(n)
; ) se numeste functia de verosimilitate corespunzatoare lui f.
Exemplu 3. f N(m,
2
),
(x; m,
2
) =
1

2
e

(xm)
2
2
2
deci
L(x
(n)
; ) =
n

j=1
1

2
e

(xm)
2
2
2
=

n
e

n
j=1
(x
j
m)
2
2
2
(11.10)
11.3 Metoda verosimilitatii maxime
Fie P, (, F, P), f : IR, (; ), = (
1
, ...,
k
) IR
k
, si functia de verosimilitate
asociata lui f:
L(x
(n)
; ) =
n

j=1
(x
j
; ), .
Metoda verosimilitatii maxime pentru estimarea parametrului consta in prele-
varea unui esantion de volum n, cu valorile de selectie x
1
, ..., x
n
. Pe baza acestora se deter-
mina

: IR
n
IR
k
astfel incat
L(x
(n)
;

(x
(n)
)) = max

L(x
(n)
; ) (11.11)
Denit ie 6.

(x
(n)
) se numeste estimatie de verosimilitate maxima pentru parametrul ,
bazata pe valorile de selectie x
1
, ..., x
n
.

n
=

(f
1
, ..., f
n
) se numeste estimator de verosimilitate maxima pentru parametrul .
Observat ie 5. Presupunem este o multime deschisa si L(x
(n)
; ) este o functie de clasa C
1
(derivabila si cu derivata continua). Cum ln este o functie crescatoare si concava pe (0, ),
functiile L(x
(n)
; ) si ln L(x
(n)
; ) isi ating extremele in aceleasi puncte. Prin urmare pentru
a gasi estimatorul de verosimilitate maxima este sucient sa gasim maximul pentru functia
ln L(x
(n)
; ).
Avem
ln L(x
(n)
; ) =
n

j=1
ln (x
j
; )
61
si se obtine sistemul de verosimilitate maxima:

ln L(x
(n)
;)

1
= 0
.
.
.
ln L(x
(n)
;)

k
= 0
(11.12)
Prin rezolvarea sistemului anterior se obtine punctul

(x
1
, ..., x
n
) in care se atinge maximul
functiei L(x
(n)
; ).
Exemplu 4. Fie f N(m,
2
). Dorim sa determinam estimatorul de verosimilitate maxima
pentru = (m,
2
). Urmand pasii descrisi mai devreme avem:
ln L(x
(n)
; m,
2
) = nln nln 2
1
2
2
n

j=1
(x
j
m)
2
Avand doi parametri de estimat (k = 2), vom avea un sistem de doua ecuatii:

ln L(x
(n)
;m,
2
)
m
= 0
ln L(x
(n)
;m,
2
)

2
= 0
=

n
j=1
(x
j
m) = 0

n
2
1

2
+
1
2
4

n
j=1
(x
j
m)
2
= 0
adica mai departe

n
j=1
x
j
nm = 0
n +
1

n
j=1
(x
j
m)
2
= 0
=

m =
1
n

n
j=1
x
j
= x

2
=
1
n

n
j=1
(x
j
x)
2
=
2
f
deci estimatorul de verosimilitate maxima pentru este

(x
(n)
) = ( m(x
(n)
),
2
(x
(n)
)) = (x,
2
f
).
11.4 Metoda momentelor
Fie P, (, F, P) si f : IR care admite m
r
= M(f
r
), r 1, k, = (
1
, ...,
k
) IR
k
.
Metoda momentelor pentru estimarea parametrilor
1
, ...,
k
presupune urmatorii pasi:
efectuarea unui sondaj de volum n, = (
1
, ...,
n
)
obtinerea valorilor de selectie x
1
, ..., x
n
calcularea cantitatilor
m
r
=
1
n
n

i=1
x
r
i
, r 1, n
rezolvarea sistemului
m
r
= m
r
, r = 1, k (11.13)
obtinut prin egalarea momentelor de selectie cu cele teoretice, de la ordinul 1 pana la
ordinul k.
62
Exemplu 5. Fie f N(m,
2
), = (m,
2
) IR (0, ), x
1
, ..., x
n
valorile de sondaj.
Sistemul (11.13) devine:

m
1
= m
m
2
= m
2
+
2
unde

m
1
=
1
n

n
i=1
x
i
= x
m
2
=
1
n

n
i=1
x
2
i
de unde obtinem mai departe

x = m
1
n

n
i=1
x
2
i
= m
2
+
2

m = x

2
=
1
n

n
i=1
x
2
i
m
2
=
1
n

n
i=1
x
2
i
x
2
=
1
n

n
i=1
(x
i
x)
2
Astfel, estimatia pentru (m,
2
) prin metoda momentelor pe baza valorilor de selectie x
1
, ..., x
n
este

(m,
2
) = (x,
2
f
).
63
Capitolul 12
Cursul XII
12.1 Vericarea ipotezelor statistice
Fie (, F, P) spatiu de probabilitate, f : IR o variabila aleatoare, (0, 1).
Denit ie 1. Un numar real c

se numeste cuantila de ordin pentru f daca


P(f c

) si P(f c

) 1 (12.1)
Observat ie 1. c

este cuantilka de ordin pentru f daca si numai daca


F
f
(c

+ 0) si 1 P(f < c

) 1
adica F
f
(c

+ 0) si F
f
(c

) , sau
F
f
(c

) F
f
(c

+ 0) (12.2)
Observat ie 2. Daca F
f
e continua atunci c

e cunatila pentru f daca si numai daca


F
f
(c

) = (12.3)
Observat ie 3. Daca f N(0, 1) atunci cuantila de ordin 1 satistace relatia c
1
= c

.
F
f
(c

) = 1 F
f
(c

) = 1 = F
f
(c
1
) = F
f
(c
1
)
Cum F
f
e strict crescatoare, c

= c
1
.
Denit ie 2. Fie f o variabila aleatoare de tip continuu si cu densitatea de repartitie

n
(x) =

n+1
2

n
2

1 +
x
2
n

n+1
2
, x IR, n > 0, xat. (12.4)
Spunem ca f are repartitia Student cu n grade de libertate, si notam f S(n).
Denit ie 3. Notam cu t
n,
cuantila de ordin a variabilei f ce are repartitia Student S(n).
Ca in cazul precedent, avem t
n,1
= t
n,
.
64
Sa consideram o populatie statistica modelata prin campul de probabilitate (, F, P) si
f : IR o caracteristica a acestei populatii. Presupunem ca se cunoaste repartitia lui
f, abstractie facand de un parametru IR
k
, F(; ) (sau densitatea (; ) )
Exemplu 1. f N(m,
2
):

f
(x) = (x; m,
2
) =
1

2
e

(xm)
2
2
2
, x IR
f P

f
(x) = (x; ) = e

x
x!
, x IN
Denit ie 4. Orice presupunere relativa la repartitia variabilei aleatoare f se numeste ipoteza
statistica. Orice metoda pentru vericarea unei ipoteze statistice se numeste test sau criteriu.
Atunci cand o ipoteza statistica se refera la un parametru spunem ca ipoteza statistica este
parametrica, iar un test pentru vericarea unei ipoteze parametrice se numeste test parame-
tric. In caz contrar avem o ipoteza statistica neparametrica, respectiv un test neparametric.
O ipoteza statistica formata dintr-un singur element se numeste ipoteza simpla, si in caz
contrar se spune ca este compusa.
Denit ie 5. Daca repartitia lui f depinde de IR
k
si =
0

1
,
0

1
= ,

0
= ,
1
, atunci
H
0
:
0
se numeste ipoteza nula
H
1
:
1
se numeste ipoteza alternativa
Exemplu 2. a) Pentru f N(m,
2
), > 0 dat, m IR parametru, si m
0
IR xat,
H
0
: m = m
0
ipoteza parametrica simpla
H
1
: m = m
0
ipoteza parametrica compusa
b) Consideram acum > 0 necunoscut, m IR parametri.
H
0
: m = m
0
, > 0 ipoteza parametrica compusa
H
1
: m = m
0
, > 0 ipoteza parametrica compusa
Denit ie 6. A construi un test pentru vericarea ipotezei nule H
0
:
0
cu alternativa
H
1
:
1
revine la a determina o submultime C IR
n
, numita regiune critica cu nivelul
de semnicatie (0, 1), foarte mic, astfel incat
P((f
1
, ..., f
n
) C|H
0
adevarata ) =
unde (f
1
, ..., f
n
) sunt variabilele aleatoare de sondaj de volum n corespunzatoare lui f.
O data determinat un astfel de C, convenim sa respingem ipoteza nula H
0
si sa acceptam
ipoteza alternativa H
1
daca (x
1
, ..., x
n
) C. Daca (x
1
, ..., x
n
) C acceptam H
0
si respingem
H
1
. Acest test se numeste test pentru vericarea ipotezei nule H
0
:
0
cu alternativa H
1
:

1
, cu nivelul de semnicatie . In practica se considera = 0.1, 0.01, 0.05, 0.02, ...
65
12.2 Testul Z
Presupunem f N(m,
2
), > 0, cunoscut, si m IR, parametru necunoscut. Ne prop-
unem sa construim un test cu nivelul de semnicatie (0, 1) pentru vericarea ipotezei
nule H
0
: m = m
0
cu una din alternativele H
1
: m = m
0
, H

1
: m > m
0
, H

1
: m < m
0
.
Fie pentru aceasta f
1
, ..., f
n
variabilele aleatoare de sondaj de volum n corespunzatoare lui
f. Consideram
Z =
f m
/

n
, f =
1
n
n

i=1
f
i
.
Se stie ca Z N(0, 1). Vom determina (z
1
, z
2
) IR astfel incat
P(z
1
< z < z
2
| H
0
- adevarata ) =
Perechea (z
1
, z
2
) nu este unica.
1.
H
0
: m = m
0
H
1
: m = m
0
Consideram (z
1
, z
2
) = (z
1

2
, z
1

2
), unde z
p
= cuantila de ordin pentru N(0, 1).
P(z
1
< Z < z
2
| H
0
- adevarata) = P(z
1

2
< Z < z
1

2
| H
0
- adevarata ) =
= P

z
1

2
<
f m
0
/

n
< z
1

= (z
1

2
)(z
1

2
) = 1

1

2

= 1
Deci
P

(f
1
, ..., f
n
)

(x
1
, ..., x
n
) IR
n
|

x m
0
/

< z
1

= 1
adica
P

(f
1
, ..., f
n
)

(x
1
, ..., x
n
) IR
n
|

x m
0
/

z
1

=
de unde rezulta ca regiunea critica pentru vericarea ipotezei nule H
0
cu alternativa
H
1
la nivelul de semnicatie este
C =

(x
1
, ..., x
n
) IR
n
|

x m
0
/

z
1

(12.5)
Daca valorile masurate (x
1
, .., x
n
) C respingem ipoteza nula H
0
si acceptam H
1
.
Daca (x
1
, ..., x
n
) C acceptam H
0
si respingem H
1
. Testul astfel construit se numeste
testul Z bilateral .
2.
H
0
: m = m
0
H
1
: > m
0
Alegem (z
1
, z
2
) = (, z
1
) si obtinem
P( < Z < z
1
| H
0
- adevarata ) = P

f m
0
/

n
z
1

= (z
1
) = 1
66
adica
P

f m
0
/

n
z
1

=
Vom alege deci regiunea critica pentru vericarea ipotezei nule H
0
cu alternativa H

1
:
n > m
0
, la nivelul de semnicatie :
C

(x
1
, ..., x
n
) IR
n
|
x m
0
/

n
z
1

(12.6)
Daca valorile masurate (x
1
, .., x
n
) C

respingem ipoteza nula H


0
si acceptam H

1
.
Daca (x
1
, ..., x
n
) C

acceptam H
0
si respingem H

1
. Testul astfel construit se numeste
testul Z unilateral dreapta.
3. Pentru cazul in care ipoteza alternativa este H

1
: m < m
0
, se obtine regiunea critica
C

(x
1
, ..., x
n
) IR
n
|
x m
0
/

n
z

(12.7)
12.3 Testul T
Fie f N(m,
2
), m IR, > 0 necunoscut, si e (f
1
, ..., f
n
) variabilele aleatoare de sondaj
de volum n corespunzatoare lui f. Notam
s
2
n
=
1
n 1
n

k=1
(f
k
f)
2
.
Atunci se poate demonstra ca
f m
s
n
/

n
S(n 1)
Ca si in cazul testului Z se arata ca regiunea critica pentru vericarea ipotezei nule H
0
:
m = m
0
cu alternativa H
1
: m = m
0
la nivelul de semnicatie este
C =

(x
1
, ..., x
n
) IR
n
|

x m
0
s
n
/

t
n1;1

(12.8)
unde
s
2
n
=
1
n 1
n

i=1
(x
i
x)
2
iar t
n1;
este cuantila de ordin pentru S(n 1).
Daca (x
1
, ..., x
n
) C respingem H
0
si acceptam H
1
, altfel acceptam H
0
si respingem
H
1
. Testul astfel construit se numeste testul T bilateral. Asemanator cu testul Z, construim
regiunile critice pentru ipotezele alternative H

1
: m > m
0
(testul T unilateral dreapta)
respectiv H

1
: m < m
0
(testul T unilateral stanga):
C

(x
1
, ..., x
n
) IR
n
|
x m
0
s
n
/

n
t
n1;1

(12.9)
si
C

(x
1
, ..., x
n
) IR
n
|
x m
0
s
n
/

n
t
n1;

(12.10)
67
12.4 Puterea unui test
Atunci cand folosim un test pentru vericarea ipotezelor statistice putem face doua tipuri
de erori:
a) de tipul 1, atunci cand respingem H
0
cu toate ca ea este adevarata
b) de tipul 2, atunci cand acceptam H
0
desi este falsa
Denit ie 7. Functia
:
1
(0, 1), () = P({(f
1
, ..., f
n
) C| H
1
}),
1
(12.11)
se numeste puterea testului caracterizat de regiunea critica C.
Sa observam ca un test este cu atat mai bun cu cat puterea sa este mai mare.
Denit ie 8. Un test cu puterea maxima, pentru vericarea ipotezei nule H
0
:
0
cu
alternativa H
1
:
1
, la nivelul de semnicatie , se numeste cel mai puternic.
Exemplu 3. Sa calculam puterea testului Z bilateral:
: IR \ {m
0
} (0, 1),
(m) = P((f
1
, ..., f
n
) C | H
1
) = P((f
1
, ..., f
n
) C | m = m
0
) =
= P

f m
0
/

z
1

2
| m = m
0

= 1 P

f m
0
/

< z
1

2
|H
1

=
= 1P

z
1

2
<
f m
0
/

n
< z
1

2
|H
1

= 1P

m
0

n
z
1

2
< f < m
0
+

n
z
1

2
|H
1

=
= 1 P

m
0
m

n
z
1

2
/

n
<
f m
/

n
<
m
0
m +

n
z
1

2
/

=
= 1 P

m
0
m
/

n
z
1

2
<
f m
/

n
<
m
0
m
/

n
+ z
1

=
= 1

m
0
m
/

n
+ z
1

m
0
m
/

n
z
1

, m = m
0
.
68