Sunteți pe pagina 1din 158

Probabilit¼

aţi şi statistic¼


a
Conf. dr. Cristian Niculescu,
Facultatea de Matematic¼ a şi Informatic¼
a,
Universitatea din Bucureşti
January 14, 2014

Part I

Probabilit¼
aţi
1 Câmp de probabilitate. Operaţii cu eveni-
mente şi formule de calcul pentru
probabilit¼aţile acestora. Evenimente indepen-
dente. Probabilitatea condiţionat¼ a. Formula
lui Bayes
1.1 Câmp de probabilitate
În teoria probabilit¼ aţilor consider¼ am un experiment cu un rezultat dependent
de şans¼
a, care e numit experiment aleator. Se presupune c¼ a toate rezultatele
posibile ale unui experiment aleator sunt cunoscute şi ele sunt elemente ale unei
mulţimi fundamentale denumit¼ a ca spaţiul probelor. Fiecare rezultat posibil este
numit prob¼a şi un eveniment este o submulţime a spaţiului probelor.
Notaţii. Fie mulţime.
P ( ) := fAjA g:
Fie A :
A = CA := fa 2 ja 2 = Ag :
De…niţia 1.1. Fie mulţime. K P ( ) se numeşte corp borelian sau
-algebr¼a pe dac¼ a şi numai dac¼ a
1) K 6= ;
2) A 2 K =) A 2 K [
3) A1 ; A2 ; :::; An ; ::: 2 K =) An 2 K.
n
( ; K) se numeşte spaţiu m¼asurabil când K este corp borelian pe :
Propriet¼ aţi. Dac¼
a ( ; K) este spaţiu m¼asurabil atunci:

1
a) 2 K
b) ; 2 K
n
[
c) A1 ; A2 ; :::; An 2 K =) Ai 2 K.
i=1
\ d) I cel mult num¼
arabil¼
a (i.e. …nit¼
a sau num¼
arabil¼
a), Ai 2 K; 8i 2 I =)
Ai 2 K
i2I
e) A; B 2 K =) AnB 2 K.
Demonstraţie. a) K 6= ; =) 9A 2 K =) A 2 K =) =A[A[A[
A [ ::: 2 K.
b) ; = 2 K.
[n n
[
c) Ai = Ai [ ; [ ; [ ::: 2 K.
i=1 i=1
\ [
d) Ai = Ai 2 K.
i2I i2I
e) AnB = A \ B 2 K.
Consider¼ am un corp borelian pe K pe un spaţiu de elemente a; b; c; ::: cu
fag ; fbg ; fcg ; ::: 2 K şi cu submulţimile A; B; C; ::: 2 K. Unele dintre corespon-
denţele dintre teoria mulţimilor şi teoria probabilit¼ aţilor sunt date în urm¼atorul
tabel:
Teoria mulţimilor Teoria probabilit¼ aţilor
Spaţiu, Spaţiul probelor, eveniment sigur
Mulţimea vid¼ a, ; Eveniment imposibil
Elemente a; b; ::: Probe a; b; ::: (sau evenimente simple)
Mulţimi A; B; ::: Evenimente A; B; :::
A Evenimentul A apare
A Evenimentul A nu apare
A[B Cel puţin unul dintre A şi B apare
A\B Ambele A şi B apar
A B A este un subeveniment al lui B (i.e. apariţia lui A implic¼ a apariţia lui B)
A\B =; A şi B sunt mutual exclusive (i.e. ele nu pot ap¼ area simultan)
; este considerat¼ a un eveniment imposibil deoarece niciun rezultat posibil
nu este element al ei. Prin "apariţia unui eveniment" înţelegem c¼ a rezultatul
observat este un element al acelei mulţimi. Spunem c¼ a mai multe evenimente
sunt mutual exclusive dac¼ a mulţimile corespunz¼ atoare sunt disjuncte dou¼ a câte
dou¼ a.
Exemplul 1.1. Consider¼ am un experiment de calculare a num¼ arului de
maşini care vireaz¼ a la stânga la o intersecţie dintr-un grup de 100 de maşini.
Rezultatele posibile (numerele posibile de maşini care vireaz¼ a la stânga) sunt
0; 1; 2; :::; 100: Atunci, spaţiul probelor este = f0; 1; 2; :::; 100g şi K = P ( ) :
A = f0; 1; 2; :::; 50g este evenimentul "cel mult 50 de maşini vireaz¼ a la stânga".
B = f40; 41; :::; 60g este evenimentul "între 40 şi 60 (inclusiv) de maşini vireaz¼ a
la stânga". A [ B este evenimentul "cel mult 60 de maşini vireaz¼ a la stânga".
A \ B este evenimentul "între 40 şi 50 (inclusiv) de maşini vireaz¼ a la stânga".

2
Fie C = f81; 82; :::; 100g. Evenimentele A şi C sunt mutual exclusive.
De…niţia 1.2. Fie ( ; K) spaţiu m¼ asurabil. Funcţia P : K ! R se numeşte
probabilitate pe ( ; K) dac¼ a şi numai dac¼ a are urm¼ atoarele propriet¼
aţi (numite
axiomele probabilit¼ aţii):
Axioma 1: P (A) 0; 8A 2 K (nenegativ¼ a).
Axioma 2: P ( ) = 1 (normat¼ a).
Axioma 3: pentru orice colecţie num¼ arabil¼ a de evenimente mutual exclusive
(mulţimi
0 disjuncte
1 dou¼ a câte dou¼a ) A1 ; A 2 ; ::: 2 K,
[ X
P @ Aj A = P (Aj ) (num¼ arabil aditiv¼ a).
j j
( ; K; P ) se numeşte câmp de probabilitate dac¼
a şi numai dac¼
a P este
probabilitate pe spaţiul m¼
asurabil ( ; K) :

1.2 Operaţii cu evenimente şi formule de calcul pentru


probabilit¼
aţile acestora
Propriet¼aţi. Dac¼
a ( ; K; P ) este câmp de probabilitate, atunci:
1) P (;) = 0:
2) pentru orice colecţie …nit¼ a de evenimente mutual exclusive (mulţimi dis-
juncte0dou¼
a câte
1 dou¼a ) A 1 ; A 2 ; :::; An 2 K,
n
[ Xn
P@ Aj A = P (Aj ) (P este aditiv¼ a).
j=1 j=1
3) A C; A; C 2 K =) P (A) P (C) :
4) A; B 2 K =)

P (A [ B) = P (A) + P (B) P (A \ B) :
5) (Formula lui Poincare) A1 ; A2 ; :::; An 2 K =)

0 1 0 1
n
[ n
X X X n
\
n 1
P@ Aj A = P (Aj ) P (Ai \ Aj )+ P (Ai \ Aj \ Ak ) :::+( 1) P@ Aj A :
j=1 j=1 1 i<j n 1 i<j<k n j=1

În particular, A; B; C 2 K =)
P (A [ B [ C) = P (A) + P (B) + P (C) P (A \ B) P (A \ C) P (B \ C) +
P (A \ B \ C):
6) A 2 K =) P A = 1 P (A) :
A3
Demonstraţie. 1) P ( ) = P ( [ ; [ ; [ :::) = P ( ) + P (;) + P (;) +
A2
::: =) 10= 1 + P1(;) + P
0(;) + ::: =) P (;)1+ P (;) + ::: = 0 =) P (;) = 0:
n
[ n
[ n
X
A3
2) P @ Aj A = P @ Aj [ ; [ ; [ :::A = P (Aj ) + P (;) + P (;) +
j=1 j=1 j=1

3
n
X n
X
1)
::: = P (Aj ) + 0 + 0 + ::: = P (Aj ) :
j=1 j=1
2)
3) P (C) = P (A [ (CnA)) = P (A) + P (CnA) =) P (C) P (A) :
| {z }
0
2) 2)
4) P (A [ B) = P (A [ (BnA)) = P (A) + P (BnA) = P (A) + P (B)
P (A \ B) :
5) Inducţie.
Pentru n = 1 e evident.
Presupunem adev¼ arat pentru n:
Fie0A1 ; A2 ;1
:::; An ;0
An+1 2 K. 1 0 1 00 1 1
n+1
[ [n n
[ n
[
4) ip. ind.
P@ Aj A = P @ Aj [ An+1 A = P @ Aj A+P (An+1 ) P @@ Aj A \ An+1 A =
j=1 j=1 j=1 j=1
0 1
n
X X X n
\
n 1
P (Aj ) P (Ai \ Aj )+ P (Ai \ Aj \ Ak ) :::+( 1) P@ Aj A+
j=1 1 i<j n j=1
0 11 i<j<k n
n
[ ip. ind.
P (An+1 ) P@ (Aj \ An+1 )A =
j=1
0 1
n+1
X X X n
\
n 1
P (Aj ) P (Ai \ Aj )+ P (Ai \ Aj \ Ak ) :::+( 1) P@ Aj A
j=1 1 i<j n 1 i<j<k n j=1
Xn X
[ P (Aj \ An+1 ) P ((Ai \ An+1 ) \ (Aj \ An+1 )) +
j=1 1 i<j n
0 1
X n
\
n 1
P ((Ai \ An+1 ) \ (Aj \ An+1 ) \ (Ak \ An+1 )) :::+( 1) P@ (Aj \ An+1 )A] =
1 i<j<k n j=1
n+1
X X n
X X
P (Aj ) P (Ai \ Aj ) P (Aj \ An+1 )+ P (Ai \ Aj \ Ak )+
j=1 1 i<j n j=1 1 i<j<k n
0 1
X n+1
\
n
P (Ai \ Aj \ An+1 ) ::: + ( 1) P @ Aj A =
1 i<j n j=1
0 1
n+1
X X X n+1
\
n
P (Aj ) P (Ai \ Aj )+ P (Ai \ Aj \ Ak ) :::+( 1) P @ Aj A :
j=1 1 i<j n+1 1 i<j<k n+1 j=1
2)
6) 1 = P ( ) = P A [ A = P (A) + P A :
Exemplul 1.2. În exemplul 1.1, presupunem c¼ a probabilit¼
aţile P (A) ; P (B)
şi P (C) sunt cunoscute. Vrem s¼ a calcul¼ am P (A [ B) (probabilitatea ca cel mult
60 de maşini s¼a vireze la stânga) şi P (A [ C) (probabilitatea ca cel mult 50 de
maşini sau între 80 şi 100 de maşini s¼a vireze la stânga). Deoarece A şi C sunt
mutual exclusive avem

4
P (A [ C) = P (A) + P (C) :
Dar
P (A [ B) = P (A) + P (B) P (A \ B) :
Informaţia dat¼a este insu…cient¼a pentru a determina P (A [ B) şi avem
nevoie de informaţia adiţional¼ a P (A \ B), care este probabilitatea ca între 40
şi 50 de maşini s¼
a vireze la stânga.

1.3 Evenimente independente


De…niţia 1.3. Fie ( ; K; P ) câmp de probabilitate. Dou¼
a evenimente A; B 2 K
se numesc independente dac¼ a şi numai dac¼
a

P (A \ B) = P (A) P (B) :
Observaţie. Dac¼a A şi B sunt evenimente independente, atunci:
P A \ B = P (A)P B ;
P A \ B = P A P (B) ;
P A\B =P A P B :
Demonstraţie. P (A) = P (A \ B) [ A \ B = P (A \ B)+P A \ B =)
P A \ B = P (A) P (A \ B) = P (A) P (A) P (B) = P (A) (1 P (B)) =
P (A)P B :
Analog pentru celelalte relaţii.
Exemplul 1.3. În lansarea unui satelit, probabilitatea unui insucces este q.
Care este probabilitatea ca dou¼ a lans¼
ari succesive s¼
a eşueze?
Presupunând c¼a lans¼
arile satelitului sunt evenimente independente, r¼ aspun-
sul este q 2 :
De…niţia 1.4. Fie ( ; K; P ) câmp de probabilitate. Evenimentele A1 ; A2 ; :::; An 2
K sunt independente dac¼ a şi numai dac¼a 8m = 2; 3; :::; n; k1 ; k2 ; :::; km 2 N a. î.
1 k1 < k2 < ::: < km n;

P (Ak1 \ Ak2 \ ::: \ Akm ) = P (Ak1 ) P (Ak2 ) :::P (Akm ) :


În particular, A1 ; A2 ; A3 sunt independente dac¼ a şi numai dac¼
a
P (Aj \ Ak ) = P (Aj ) P (Ak ) ; 8j < k; j; k = 1; 2; 3;
şi
P (A1 \ A2 \ A3 ) = P (A1 ) P (A2 ) P (A3 ) :
Observaţii. 1) Num¼ arul de egalit¼
aţi din de…niţia independenţei a n eveni-
mente este 2n n 1:
2) Independenţa dou¼ a câte dou¼a nu conduce în general la independenţ¼ a.
Contraexemplu. Fie 3 evenimente A1 ; A2 ; A3 de…nite de
A1 = B1 [ B2 ; A2 = B1 [ B3 ; A3 = B2 [ B3 ;
unde B1 ; B2 şi B3 sunt mutual exclusive, …ecare având probabilitatea 41 :
P (A1 ) = P (B1 [ B2 ) = P (B1 ) + P (B2 ) = 21 :
Analog P (A2 ) = P (A3 ) = 12 :
P (A1 \ A2 ) = P ((B1 [ B2 ) \ (B1 [ B3 )) = P (B1 [ (B2 \ B3 )) = P (B1 [ ;) =
P (B1 ) = 14 = 12 12 = P (A1 ) P (A2 ) :

5
Analog P (A1 \ A3 ) = P (A1 ) P (A3 ) ; P (A2 \ A3 ) = P (A2 ) P (A3 ) :
P (A1 \ A2 \ A3 ) = P ((B1 [ B2 ) \ (B1 [ B3 ) \ (B2 [ B3 )) = P ((B1 [ (B2 \ B3 )) \ (B2 [ B3 )) =
P (B1 \ (B2 [ B3 )) = P ((B1 \ B2 ) [ (B1 \ B3 )) = P (; [ ;) = P (;) = 0:
P (A1 ) P (A2 ) P (A3 ) = 81 :
Deci P (A1 \ A2 \ A3 ) 6= P (A1 ) P (A2 ) P (A3 ) :
Evenimentele A1 ; A2 ; A3 sunt independente dou¼ a câte dou¼
a, dar nu sunt
independente.
3) Dac¼a evenimentele A1 ; A2 ; :::; An sunt independente, atunci înlocuind ori-
care din Akj cu complementara Akj în ambii membri din relaţiile din de…niţia
independenţei, relaţiile obţinute r¼amân valabile.
Exemplul 1.4. Un sistem compus din 5 componente merge exact atunci
când …ecare component¼ a e bun¼ a. Fie Si ; i = 1; :::; 5; evenimentul "componenta
i e bun¼a" şi presupunem P (Si ) = pi . Care e probabilitatea q ca sistemul s¼ a nu
mearg¼ a?
Presupunând c¼ a cele 5 componente merg într-o manier¼ a independent¼
a, …e p
probabilitatea de succes. !
\5 Y5 Y5
q=1 p=1 P Si = 1 P (Si ) = 1 pi :
i=1 i=1 i=1

1.4 Probabilitatea condiţionat¼


a
De…niţia 1.5. Fie ( ; K; P ) câmp de probabilitate şi A; B 2 K a. î. P (B) 6= 0:
Probabilitatea condiţionat¼a de B a lui A este dat¼
a de

P (A \ B)
P (AjB) = :
P (B)
Observaţie. În ipotezele de…niţiei 1.5, A şi B sunt independente ()
P (AjB) = P (A) :
Demonstraţie. A şi B sunt independente () P (A \ B) = P (A) P (B) ()
P (A\B)
P (B) = P (A) () P (AjB) = P (A) :
Propoziţie. Fie ( ; K; P ) câmp de probabilitate şi B 2 K a. î. P (B) 6= 0:
Atunci funcţia PB : K ! R; PB (A) = P (AjB) este probabilitate pe( ; K) :
Demonstraţie. Veri…c¼ am cele 3 axiome ale probabilit¼ aţii:
1) PB (A) = P P(A\B)
(B) 0; 8A 2 K, deoarece P (A \ B) 0 şi P (B) > 0:
2) PB ( ) = P P( (B)\B)
=P P (B)
(B) = 1:
3) A1 ; A2 ; ::: 2 K colecţie num¼
arabil¼
a de evenimente mutual exclusive =)
A1 \B; A2 \B; ::: 2 K mutual exclusive =) PB (A1 [ A2 [ :::) = P ((A1 [A 2 [:::)\B)
P (B) =
P ((A1 \B)[(A2 \B)[:::)
P (B) = P (A1 \B)+P ((A2 \B))+:::
P (B) = P (A 1 \B)
P (B) + P (A 2 \B)
P (B) + ::: =
PB (A1 ) + PB (A2 ) + ::::
Exemplul 1.5. Reconsider¼ am exemplul 1.4 presupunând p1 > 0. Care este
probabilitatea condiţionat¼ a ca primele dou¼ a componente s¼ a …e bune dat …ind

a:
a) prima component¼ a este bun¼a;

6
b) cel puţin una dintre cele dou¼ a este bun¼ a?
Evenimentul S1 \ S2 înseamn¼ a c¼a ambele componente sunt bune, iar S1 [ S2

a cel puţin una e bun¼ a. Datorit¼ a independenţei lui S1 şi S2 ; avem:
1 \S2 \S1 )
a) P (S1 \ S2 jS1 ) = P (SP (S1 ) = P (S 1 \S2 )
P (S1 ) = P (SP1(S
)P (S2 )
1)
= P (S2 ) = p2 .
b) P (S1 \ S2 jS1 [ S2 ) = P (S1P\S(S21\(S 1 [S2 ))
[S2 ) =P (S1 \S2 ) P (S1 )P (S2 )
P (S1 [S2 ) = P (S1 )+P (S2 ) P (S1 \S2 ) =
p1 p2
p1 +p2 p1 p2 :
Exemplul 1.6. Determinaţi probabilitatea de a trage, f¼ ar¼a înlocuire, 2 aşi
succesiv dintr-un pachet de c¼ arţi de joc f¼ ar¼
a jokeri.
Fie A1 evenimentul "prima carte tras¼ a este un as" şi similar A2 . Se cere
P (A1 \ A2 ).
4
P (A1 ) = 52 (sunt 4 aşi în cele 52 de c¼ arţi din pachet).
3
P (A2 jA1 ) = 51 (dac¼ a prima carte tras¼ a este un as, au r¼ amas 51 de c¼ arţi
dintre care 3 sunt aşi).
P (A2 jA1 ) = P (A 1 \A2 )
P (A1 ) =) P (A1 \ A2 ) = P (A1 ) P (A2 jA1 ) = 52 4 3
51 =
1 1 1
13 17 = 221 :
Propoziţie. Fie ( ; K; P ) câmp de probabilitate şi A1 ; A2 ; :::; An 2 K a. î.
P (A1 \ A2 \ ::: \ An 1 ) > 0. Atunci
P (A1 \ A2 \ ::: \ An ) = P (A1 ) P (A2 jA1 )P (A3 jA1 \ A2 ) :::P (An jA1 \ A2 \ ::: \ An 1) :
Demonstraţie. A1 A1 \ A2 ::: A1 \ A2 \ ::: \ An 1 =) P (A1 )
P (A1 \ A2 ) ::: P (A1 \ A2 \ ::: \ An 1 ) > 0 =) probabilit¼ aţile
condiţionate din membrul drept au sens.
P (A1 ) P (A2 jA1 )P (A3 jA1 \ A2 ) :::P (An jA1 \ A2 \ ::: \ An 1 ) = P (A1 ) P (A 1 \A2 )
P (A1 )
P (A1 \A2 \A3 )
P (A1 \A2 )
1 \A2 \:::\An )
::: PP(A(A1 \A 2 \:::\An 1 )
= P (A1 \ A2 \ ::: \ An ) :
De…niţia 1.6. Fie Bi ; 8i 2 I: (Bi )i2I se numeşte partiţie a lui dac¼
a
[
şi numai dac¼
a (Bi )i2I sunt disjuncte dou¼ a câte dou¼a şi Bi = :
i2I
Teorema probabilit¼ aţii totale. Fie ( ; K; P ) câmp de probabilitate şi
(Bi )i2I K partiţie cel mult num¼ arabil¼
a a lui a. î. P (Bi ) > 0; 8i 2 I:
Atunci, 8A 2 K,
X
P (A) = P (AjBi ) P (Bi ) :
i2I

Demonstraţie. (Bi )i2I mutual exclusive, A \ Bi Bi ; 8i 2 I =)


X X P (A\B
i)
(A \ Bi )i2I mutual exclusive =) P (AjBi ) P (Bi ) = P (Bi ) P (Bi ) =
! i2I !! i2I
X [ [
P (A \ Bi ) = P (A \ Bi ) = P A \ Bi = P (A \ ) = P (A) :
i2I i2I i2I
Exemplul 1.7. S¼ a se determine probabilitatea ca un nivel critic al curgerii

a …e atins în timpul furtunilor într-un sistem de canalizare pe baza m¼ asur¼
ato-
rilor meteorologice şi hidrologice.
Fie Bi ; i = 1; 2; 3 diferitele nivele (mic, mediu şi mare) de precipitaţii cauzate
de o furtun¼ a şi Aj ; j = 1; 2 nivelele critic, respectiv necritic al curgerii.

7
Probabilit¼ aţile P (Bi ) pot …estimate din înregistr¼
arile meteorologice, iar P (Aj jBi )
din analiza curgerii. Presupunem c¼ a:
P (B1 ) = 0; 5; P (B2 ) = 0; 3; P (B3 ) = 0; 2;
P (A1 jB1 ) = 0; P (A1 jB2 ) = 0; 2; P (A1 jB3 ) = 0; 6;
P (A2 jB1 ) = 1; P (A2 jB2 ) = 0; 8; P (A2 jB3 ) = 0; 4:
Deoarece B1 ; B2 ; B3 constituie o partiţie, din teorema probabilit¼ aţii totale
avem:
P (A1 ) = P (A1 jB1 ) P (B1 )+P (A1 jB2 ) P (B2 )+P (A1 jB3 ) P (B3 ) = 0 0; 5+
0; 2 0; 3 + 0; 6 0; 2 = 0; 18:

1.5 Formula lui Bayes


Thomas Bayes a fost un …lozof englez.
Teorema lui Bayes. Fie ( ; K; P ) câmp de probabilitate şi A; B 2 K a. î.
P (A) 6= 0 şi P (B) 6= 0. Atunci:

P (AjB) P (B)
P (BjA) = :
P (A)
P (A\B)
P (B)
Demonstraţie. P (AjB)P
P (A)
(B)
= P (B)
P (A) = P P(B\A)
(A) = P (BjA) :
Formula lui Bayes. Fie ( ; K; P ) câmp de probabilitate şi (Bi )i2I K
partiţie cel mult num¼arabil¼a a lui a. î. P (Bi ) > 0; 8i 2 I: Atunci, 8A 2 K a.
î. P (A) 6= 0; 8i 2 I;
P (Bi jA) = XP (AjBi )P (Bi ) :
[P (AjBj )P (Bj )]
j2I
TPT P (AjBi )P (Bi ) TB
Demonstraţie. XP (AjBi )P (Bi ) = P (A) = P (Bi jA) :
[P (AjBj )P (Bj )]
j2I

Exemplul 1.8. În exemplul 1.7, s¼ a se determine P (B2 jA2 ), probabilitatea


ca, dat …ind c¼ a s-a atins un nivel necritic al curgerii, el s¼ a … fost datorat unei
furtuni de nivel mediu. Din formula lui Bayes rezult¼ a
P (A2 jB2 )P (B2 ) 0;8 0;3 0;24 0;24
P (B2 jA2 ) = X 3 = 1 0;5+0;8 0;3+0;4 0;2 = 0;5+0;24+0;08 = 0;82 =
[P (A2 jBj )P (Bj )]
j=1
12
41 = 0; 293:
Exemplul 1.9. Un canal de comunicare binar simplu transmite mesaje
folosind doar 2 semnale, s¼ a spunem 0 şi 1. Presupunem c¼ a, pentru un canal
binar dat, 40%din timp e transmis un 1; probabilitatea ca un 0 transmis s¼ a
…e corect recepţionat este 0,9 şi probabilitatea ca un 1 transmis s¼a …e corect
recepţionat este 0,95. Determinaţi:
a) probabilitatea ca un 1 s¼
a …e primit;
b) dat …ind c¼a un 1 este primit, probabilitatea ca un 1 s¼
a … fost transmis.
Fie
A = "1 este transmis"
A = "0 este transmis"

8
B = "1 este primit"
B = "0 este primit".
Din ipoteze
P (A) = 0; 4; P A = 0; 6;
P (BjA) = 0; 95; P BjA = 0; 05;
P BjA = 0; 9; P BjA = 0; 1:
a) Deoarece A şi A formeaz¼ a o partiţie, din teorema probabilit¼
aţii totale
rezult¼
a c¼
a
P (B) = P (BjA) P (A) + P BjA P A = 0; 95 0; 4 + 0; 1 0; 6 = 0; 38 +
0; 06 = 0; 44:
b) Din teorema lui Bayes,
P (AjB) = P (BjA)P
P (B)
(A)
= 0;95 0;4 0;38 19
0;44 = 0;44 = 22 = 0; 864:

9
2 Variabile aleatoare. Variabile aleatoare dis-
crete şi variabile aleatoare continue, cu densi-
tate de repartiţie. Funcţie de repartiţie. Mo-
mentele unei variabile aleatoare
2.1 Variabile aleatoare
Consider¼ am un experiment aleator ale c¼ arui rezultate sunt elemente ale spaţiului
probelor din câmpul de probabilitate ( ; K; P ) : Pentru a construi un model
pentru o variabil¼ a aleatoare, presupunem c¼ a e posibil s¼
a asociem un num¼ ar real
X (!) pentru …ecare rezultat !, urmând un anumit set de reguli.
De…niţia 2.1. Funcţia X se numeşte variabil¼a aleatoare dac¼ a şi numai dac¼a
a) X : ! R, unde ( ; K; P ) este câmp de probabilitate şi
b) 8x 2 R; f! 2 jX (!) xg 2 K.
Condiţia b) din de…niţie e aşa-numita "condiţie de m¼ asurabilitate". Ea ne
asigur¼a c¼
a are sens s¼
a consider¼am probabilitatea evenimentului f! 2 jX (!) xg,
notat mai simplu X x pentru orice x 2 R, sau, mai general, probabilitatea
oric¼
arei combinaţii …nite sau num¼ arabile de astfel de evenimente.
În continuare, dac¼ a nu e speci…cat altfel, variabilele aleatoare sunt
considerate pe un câmp de probabilitate ( ; K; P ) :

2.2 Variabile aleatoare discrete şi variabile aleatoare con-


tinue, cu densitate de repartiţie
De…niţia 2.2. O variabil¼ a aleatoare se numeşte discret¼a dac¼ a şi numai dac¼ a
ia numai valori izolate. Mulţimea valorilor unei variabile aleatoare discrete este
cel mult num¼arabil¼a.
De…niţia 2.3. O variabil¼ a aleatoare se numeşte continu¼a dac¼ a valorile ei
umplu un interval.
De…niţia 2.4. Fie X, variabil¼ a aleatoare
Z continu¼ a. O funcţie fX : R ! R
x
a. î. fX (x) 0; 8x 2 R şi P (X x) = fX (u) du; 8x 2 R se numeşte
1
funcţie densitate de repartiţie sau funcţie densitate de probabilitate sau simplu
densitate a lui X:

2.3 Funcţie de repartiţie


De…niţia 2.5. Fie X variabil¼
a aleatoare. Funcţia FX : R ! R;

FX (x) = P (X x) ;
se numeşte funcţia de repartiţie de probabilitate sau simplu funcţia de repar-
tiţie a lui X.
Indicele X identi…c¼ a variabila aleatoare. Acest indice e uneori omis când nu
e pericol de confuzie.

10
aţi ale funcţiei de repartiţie. 1) Exist¼
Propriet¼ a şi are valori între 0 şi
1:
2) E continu¼
a la dreapta şi cresc¼
atoare. Mai mult, avem:
FX ( 1) := lim FX (x) = 0 şi FX (1) := lim FX (x) = 1:
x! 1 x!1
3) Dac¼ a a; b 2 R a. î. a < b, atunci
P (a < X b) := P (f! 2 ja < X (!) bg) = FX (b) FX (a) :
Aceast¼ a relaţie rezult¼ a din
P (X b) = P (X a) + P (a < X b) :
Exemplul 2.1. Fie X o variabil¼ a aleatoare discret¼ a cu valorile 1; 1; 2; 3
1 1 2 3
luate cu probabilit¼ aţile 41 ; 18 ; 18 , respectiv 21 . Pe scurt not¼
am X 1 1 1 1 .
4 8 8 2
Avem 8
>
> 0, pentru x < 1;
>
>
< 14 , pentru 1 x < 1;
3
FX (x) = 8 , pentru 1 x < 2;
>
> 1
>
> , pentru 2 x < 3;
: 2
1, pentru x 3:
Gra…cul lui FX este dat mai jos.

Este tipic pentru funcţia de repartiţie a unei variabile aleatoare discrete s¼


a
creasc¼
a de la 0 la 1 "în trepte".

11
Exemplul 2.2. O funcţie de repartiţie tipic¼
a pentru o variabil¼
a aleatoare
continu¼
a este reprezentat¼
a gra…c mai jos.

Ea nu are salturi sau discontinuit¼ aţi ca în cazul unei variabile aleatoare


discrete. Probabilitatea ca X s¼ a aib¼ a o valoare într-un anumit interval este
dat¼a de proprietatea 3) a funcţiei de repartiţie. Din gra…c
P ( 1 < X 1) = FX (1) FX ( 1) = 0; 8 0; 4 = 0; 4:
Avem P (X = a) = 0; 8a 2 R:
Observaţie. Se poate de…ni funcţia de repartiţie şi ca FX : R ! R; FX (x) =
P (X < x). În acest caz propriet¼ aţile 1) şi 2) r¼
amân valabile cu excepţia faptului

a funcţia de repartiţie este continu¼ a la stânga şi nu la dreapta, iar proprietatea
3) devine
3’) Dac¼ a a; b 2 R a. î. a < b, atunci
P (a X < b) = FX (b) FX (a) :
0
Propriet¼ aţi ale densit¼ aţii. 1) fX (x) = FX (x) ; 8x în care FX este
derivabil¼a.
2) Zx
FX (x) = fX (u) du; 8x 2 R:
1
Z 1
3) fX (x) dx = 1:
1
4) Dac¼
a a; b 2 R a. î. a < b, atunci
Z b
P (a < X b) = FX (b) FX (a) = fX (x) dx:
a
Exemplul 2.3. Un exemplu de densitate e reprezentat¼
a gra…c mai jos.

12
Dup¼a cum indic¼ a propriet¼aţile 3) şi 4), aria total¼a de sub curb¼ a este 1 şi
suprafaţa haşurat¼a de la a la b e egal¼ a cu P (a < X b).
Observaţie. Cunoaşterea densit¼ aţii sau a funcţiei de repartiţie
caracterizeaz¼ a complet o variabil¼ a aleatoare continu¼ a.
Exemplul 2.4. Fie a > 0. O variabil¼ a aleatoare X a c¼ arei densitate este
ae ax , pentru x > 0;
fX (x) =
0, altfel,
se numeşte repartizat¼a exponenţial (de parametru a). Avem fX (x) 0; 8x 2
R şiZ Z Z
1 0 1
ax ax 1
fX (x) dx = 0dx + ae dx = 0 e j0 = 1;
1 1 0
deci fX veri…c¼
a proprietatea 3).
Dac¼
Z x a x < 0, atunci
Z x
fX (u) du = 0du = 0:
1 1
Dac¼
Z x a x 0, atunciZ Z
0 x
au au x ax
fX (u) du = 0du + ae du = 0 e j0 =1 e :
1 1 0
Deci, din proprietatea 2) avem
0, pentru x < 0;
FX (x) =
1 e ax , pentru x 0:
Gra…cul densit¼ aţii e dat în …gura (a), iar al funcţiei de repartiţie în …gura
(b) de mai jos.

13
Calcul¼
am unele probabilit¼aţi folosind fX .
P (0 < X 1) e egal¼ a cu aria de sub gra…cul lui fX de la x = 0 la x = 1,
dup¼
a cum se arat¼
a în …gura (a). Avem
Z 1
P (0 < X 1) = fX (x) dx = e ax j10 = 1 e a :
0

14
P (X > 3) e obţinut¼
a calculând aria de sub gra…cul lui fX la dreapta lui
x = 3, deci Z 1
P (X > 3) = fX (x) dx = e ax j13 =e
3a
:
3
Aceleaşi probabilit¼
aţi pot … obţinute din FX astfel:
P (0 < X 1) = FX (1) FX (0) = 1 e a 0 = 1 e a ;
P (X > 3) = FX (1) FX (3) = 1 1 e 3a = e 3a :
Mai observ¼ am c¼
a P (0 < X 1) = P (0 X 1) pentru variabile aleatoare
continue, deoarece P (X = 0) = 0:
De…niţia 2.6. Fie X variabil¼ a aleatoare discret¼a. Funcţia pX : R !
R; pX (x) = P (X = x) := P (f! 2 jX (!) = xg) se numeşte funcţia mas¼a de
probabilitate a lui X, sau, pe scurt, masa lui X.
Din nou indicele X e folosit pentru a identi…ca variabila aleatoare asociat¼a.
Exemplul 2.5. Funcţia mas¼ a de probabilitate a variabilei aleatoare X
1 1 2 3
1 1 1 1 din exemplul 2.1 e reprezentat¼ a mai jos.
4 8 8 2

Observaţii. 1) Dac¼ a X e variabil¼ a aleatoare discret¼a cu mulţimea cel mult


num¼
arabil¼
a de valori fx1 ; x2 ; :::g luate cu probabilit¼
aţi nenule, atunci:
0 < pX (xi ) 1; 8i;
X
pX (xi ) = 1;
i
pX (x) = 0; 8x 2
= fx1 ; x2 ; :::g :

15
2) Ca şi FX , speci…carea lui pX caracterizeaz¼
a complet variabila aleatoare
discret¼
a X. Mai mult, presupunând x1 < x2 < :::, relaţiile dintre FX şi pX sunt

pX (x1 ) = FX (x1 ) ;
pX (xi ) = FX (xi ) FX (xi 1 ) ; 8i > 1;
X
FX (x) = pX (xi ) ; 8x 2 R:
ijxi x

3) Speci…carea lui pX se face de obicei dând numai valorile pozitive, în restul


punctelor subînţelegându-se c¼
a e 0:

2.4 Momentele unei variabile aleatoare


Fie X variabil¼a aleatoare discret¼ a cu valorile x1 ; x2 ; ::: şi funcţia mas¼
a de
probabilitate pX sau continu¼ a cu densitatea fX .
De…niţia 2.7. Num¼ arul real
8 X
>
> xi pX (xi ) , pentru X discret¼ a;
<
E (X) := Zi 1
>
> xfX (x) dx, pentru X continu¼ a,
:
1

dac¼
a exist¼
a, se numeşte media lui X şi se mai noteaz¼ a mX sau simplu m:
De…niţia 2.8. Fie n 2 N . Num¼ arul real
8 X
>
> xni pX (xi ) , pentru X discret¼
a;
<
n
n := E (X ) =
Z i
1
>
> xn fX (x) dx, pentru X continu¼
a,
:
1

dac¼
a exist¼
a, se numeşte momentul de ordinul n al lui X:
Observaţie. Media este momentul de ordinul 1.
1 1 2 3
Exemplul 2.6. Fie X 1 1 1 1 din exemplul 2.1.
4 8 8 2
E (X) = ( 1) 14 + 1 18 + 2 18 + 3 21 = 41 + 18 + 14 + 32 = 18 + 23 = 13
8 :
Exemplul 2.7. Timpul de aşteptare X (în minute) al unui client la un
automat de bilete are densitatea
2e 2x , pentru x > 0;
fX (x) =
0, altfel.
Determinaţi timpul mediu de aşteptare.
IntegrândZprin p¼arţi avem Z Z Z
1 0 1 1
2x 2x 0
E (X) = xfX (x) dx = 0dx+ x 2e dx = 0 x e dx =
Z 1
1 1 0 0
2x 1 2x 1 2x 1 1
xe j0 + e dx = 0 2e j0 = 2 minut.
0
Propriet¼ aţi ale mediei. Dac¼ a c 2 R este o constant¼ a şi X şi Y sunt
variabile aleatoare pe acelaşi câmp de probabilitate ( ; K; P ), atunci:

16
E (c) = c;
E (cX) = cE (X) ;
E (X + Y ) = E (X) + E (Y ),
E (X) E (Y ), dac¼ a X Y (i.e. X (!) Y (!) ; 8! 2 ).
De…niţia 2.9. Fie X variabil¼ a aleatoare. Se numeşte median¼a a lui X o
valoare x0 a lui X a. î. P (X x0 ) = 21 sau, dac¼ a o astfel de valoare nu exist¼ a,
valoarea x0 a lui X a. î. P (X < x0 ) < 21 şi P (X x0 ) > 21 .
Media lui X poate s¼ a nu existe, dar exist¼a cel puţin o median¼a.
În comparaţie cu media, mediana e uneori preferat¼ a ca m¼
asur¼a a tendinţei
centrale când repartiţia e asimetric¼ a, în particular când sunt un num¼ ar mic de
valori extreme în repartiţie. De exemplu, vorbim de mediana veniturilor ca
o bun¼ a m¼ asur¼a a tendinţei centrale a venitului personal pentru o populaţie.
Aceasta e o m¼ asur¼a mai bun¼ a decât media, deoarece mediana nu e aşa sensibil¼ a
la un num¼ ar mic de venituri extrem de mari sau venituri extrem de mici ca
media.
Exemplul 2.8. Fie T timpul dintre emisiile de particule la un atom ra-
dioactiv. Este stabilit c¼ a T e o variabil¼a aleatoare cu repartiţie exponenţial¼ a,
adic¼a
e t , pentru t > 0;
fT (t) =
0, altfel,
unde e o constant¼ a pozitiv¼
a. Variabila aleatoare T se numeşte timpul de
viaţ¼
a al atomului şi o m¼ asur¼
a medie a acestui timp de viaţ¼ a este timpul de
înjum¼ at¼
aţire, de…nit ca mediana lui T . Astfel, timpul de înjum¼ at¼aţire e g¼ asit
din Z
P (T ) = 21 () fT (t) dt = 21 () 1 e = 12 () e =
1
1
2 () = ln 2 :
Observ¼
amZ c¼
a viaţa medie E (T ) este
1
1
E (T ) = tfT (t) dt = (se calculeaz¼
a analog ca la exemplul 2.7).
1
De…niţia 2.10. Fie X variabil¼ a aleatoare. Se numeşte modul sau mod¼a a
lui X
a) o valoare xi luat¼
a de X a. î. pX (xi ) > pX (xi+1 ) şi pX (xi ) > pX (xi 1 ),
dac¼a X e discret¼
a cu valorile x1 < x2 < :::;
b) un punct de maxim local al lui fX , dac¼ a X e continu¼ a.
Un modul este astfel o valoare a lui X corespunz¼ atoare unui vârf în funcţia
mas¼a de probabilitate sau în densitate.
Termenul distribuţie unimodal¼a se refer¼a la o funcţie de repartiţie a unei
variabile aleatoare care are un modul unic.
Media, mediana şi modulul coincid atunci când o repartiţie unimodal¼ a este
simetric¼a.
De…niţia 2.11. Fie n 2 N şi X variabil¼ a aleatoare de medie m. Momentul
centrat de ordinul n al lui X este

17
8 X
> n
>
< (xi m) pX (xi ) , pentru X discret¼
a;
n = E ((X
n
m) ) = Z i
1
>
> n
(x m) fX (x) dx, pentru X continu¼ a.
:
1

De…niţia 2.12. Fie X variabil¼ a aleatoare.Varianţa sau dispersia lui X este


momentul centrat de ordinul 2 al lui X; 2 . Se noteaz¼ a cu 2X sau simplu 2
sau var (X).
Valori mari ale lui 2X implic¼ a o întindere mare a valorilor lui X în jurul
mediei. Reciproc, valori mici ale lui 2X implic¼ a o concentrare a valorilor lui
X în jurul mediei. În cazul extrem când 2X = 0, X = m cu probabilitatea 1
(întreaga mas¼
a a distribuţiei e concentrat¼
a în medie).
Propoziţie. Relaţia dintre dispersia şi momentele lui X este
2
= 2 m2 :
2
Demonstraţie. 2 = E (X m) = E X 2 2mX + m2 = E X 2
2mE (X) + m2 = 2 2m2 + m2 = 2 m2 :
Alte propriet¼ aţi ale dispersiei. var (X) 0;
var (X + c) = var (X) ; 8c 2 R;
var (cX) = c2 var (X) ; 8c 2 R:
Fie X r
variabil¼
a aleatoare de medie m. Se numeşte deviaţie standard a lui X
2
X = E (X m) :
Un avantaj al folosirii lui X în locul lui 2X este c¼ a X are aceeaşi unitate
de m¼ asur¼a ca media. De aceea poate … comparat¼ a cu media pe aceeaşi scal¼a
pentru a obţine o m¼ asur¼
a a gradului de împr¼ aştiere.
Un num¼ ar adimensional (f¼ ar¼
a unitate de m¼ asur¼a) care caracterizeaz¼
a îm-
pr¼
aştierea relativ la medie şi care faciliteaz¼a compararea variabilelor aleatoare
de unit¼aţi diferite este coe…cientul de variaţie de…nit de
X
vX = :
mX
1 1 2 3
Exemplul 2.9. Fie X 1 1 1 1 din exemplul 2.1. S¼
a deter-
4 8 8 2
am 2X .
min¼
În exemplul 2.6 am v¼ a mX = 13
azut c¼ 8 . Avem
2
E X = ( 1) 4 + 1 8 + 2 8 + 32 12 = 41 +
2 1 2 1 2 1 1
8 + 1
2 + 9
2 = 3
8 +5= 43
8 :
2
X =E X
2
m2X = 43
8
169
64 =
344 169
64 = 175
64 :
2e 2x , pentru x 0;
Exemplul 2.10. Determin¼
am dispersia lui X cu fX (x) = :
0, altfel.
1
În exemplul 2.7 am v¼azut c¼a mX = 2 : Avem, integrând prin p¼ arţi
Z 1 Z 0 Z 1 Z 1
0
E X2 = x2 fX (x) dx = 0dx+ x2 2e 2x dx = 0 x2 e 2x dx =
Z 11 1 0 0
2 2x 1 2x 1 1
x e j0 + 2xe dx = 0 + 2 = 2 , ultima integral¼
a …ind calculat¼ a la
0

18
exemplul 2.7.
Deci
2
X =E X
2
m2X = 12 41 = 14 :
Coe…cientul de asimetrie de…nit de
1 = 3
3

d¼a o m¼ asur¼
a a simetriei unei distribuţii. Este pozitiv când o distribuţie
unimodal¼ a are o coad¼ a dominant¼ a la dreapta (adic¼a modulul este la stânga
mediei) şi negativ în caz contrar. Este 0 când o distribuţie e simetric¼
a în jurul
mediei. De fapt, o distribuţie simetric¼ a în jurul mediei are toate momentele
centrate de ordin impar 0. În …gurile (a), (b) şi (c) sunt reprezentate densit¼aţi
cu 1 > 0; 1 = 0; respectiv 1 < 0:

19
Gradul de aplatizare a distribuţiei lâng¼a vârfuri poate … m¼
asurat de coe…-
cientul de exces de…nit de
2 = 4 3:
4

Un 2 > 0 implic¼ a un vârf ascuţit în vecin¼


atatea modulului unei distribuţii
unimodale, iar 2 < 0 implic¼a, de regul¼ a, un vârf turtit.

2.4.1 Inegalitatea lui Cebîşev


Teorema 2.1. (Inegalitatea lui Cebîşev) Fie X variabil¼
a aleatoare cu media
mX şi deviaţia standard X 6= 0. Atunci

20
1
P (jX mX j k X) ; (2.1)
k2
pentru orice k > 0:
Demonstraţie.
Z 1 Presupunem X continu¼
Z a. Din de…niţie avem
2 2 2
X = (x mX ) fX (x) dx (x mX ) fX (x) dx
Z 1 jx mX j k X

2 2 2 2
k X fX (x) dx = k X P (jX mX j k X ) :
jx mX j k X
Rezult¼
a relaţia (2.1). Demonstraţia este similar¼
a când X este discret¼
a.

21
3 Independenţa variabilelor aleatoare. Densi-
tate de repartiţie condiţionat¼a şi formula lui
Bayes pentru densit¼ aţi de repartiţie. Covari-
anţ¼
a şi corelaţie
3.1 Independenţa variabilelor aleatoare
Toate variabilele aleatoare sunt considerate pe acelaşi câmp de probabilitate
( ; K; P ), dac¼
a nu se speci…c¼
a altfel.
De…niţia 3.1. a) Funcţia de repartiţie comun¼a a variabilelor aleatoare X
şi Y este de…nit¼
a de

FXY (x; y) = P (X x\Y y) :


b) Funcţia de repartiţie comun¼a a variabilelor aleatoare X1 ; X2 ; :::; Xn este
de…nit¼
a de

FX1 X2 :::Xn (x1 ; x2 ; :::; xn ) = P (X1 x1 \ X2 x2 \ ::: \ Xn xn ) :

Propriet¼ aţi 3.1. a) FXY (x; y) 0; 8x; y 2 R:


b) FXY e cresc¼ atoare în x şi y.
c) FXY e continu¼ a la dreapta în raport cu x şi y.
d) FXY ( 1; 1) = FXY ( 1; y) = FXY (x; 1) = 0; 8x; y 2 R:
e) FXY (1; 1) = 1:
f) FXY (x; 1) = FX (x) ; 8x 2 R:
g) FXY (1; y) = FY (y) ; 8y 2 R:
h) 8x1 ; x2 ; y1 ; y2 2 R a. î. x1 < x2 şi y1 < y2 ;
P (x1 < X x2 \ y1 < Y y2 ) = FXY (x2 ; y2 ) FXY (x1 ; y2 ) FXY (x2 ; y1 )+
FXY (x1 ; y1 ) :
Demonstr¼ am de exemplu f):
FXY (x; 1) = P (X x \ Y 1) = P (X x \ ) = P (X x) = FX (x) ; 8x 2
R:
Propriet¼ aţi similare se pot deduce pentru FX1 X2 :::Xn :
Forma general¼ a a lui FXY poate … vizualizat¼a din propriet¼
aţile d)-g). În cazul
când X şi Y sunt discrete FXY seam¼ an¼
a cu un colţ al unor trepte neregulate,
ca în …gura de mai jos.

22
Creşte de la 0 la în¼ alţimea de 1 în direcţia dinspre cadranul 3 spre cadranul
1. Când X şi Y sunt continue FXY este o suprafaţ¼ a neted¼ a cu aceleaşi tr¼as¼
aturi.
Propriet¼ aţile f) şi g) arat¼ a c¼
a funcţiile de repartiţie ale variabilelor aleatoare
individuale, numite funcţii de repartiţie marginale, pot … calculate din funcţia
de repartiţie comun¼ a a lor. Reciproca nu este în general adev¼ arat¼a. O situaţie
important¼ a când reciproca este adev¼ arat¼ a este când X şi Y sunt independente.
De…niţia 3.2. a) Variabilele aleatoare X şi Y sunt independente dac¼ a şi
numai dac¼ a P (X x \ Y y) = P (X x) P (Y y) ; 8x; y 2 R:
b) Variabilele aleatoare X1 ; X2 ; :::; Xn sunt independente dac¼ a şi numai dac¼ a
P (X1 x1 \ X2 x2 \ ::: \ Xn xn ) = P (X1 x1 ) P (X2 x2 ) :::P (Xn xn ) ; 8x1 ; x2 ; :::; xn 2
R:
c) Fie I mulţime in…nit¼ a. Variabilele aleatoare (Xi )i2I sunt independente
() (Xi )i2J sunt independente, 8J I …nit¼ a.
Observaţii. a) X şi Y sunt independente ()
FXY (x; y) = FX (x) FY (y) ; 8x; y 2 R:
b) X1 ; X2 ; :::; Xn sunt independente ()
FX1 X2 :::Xn (x1 ; x2 ; :::; xn ) = FX1 (x1 ) FX2 (x2 ) :::FXn (xn ) ; 8x1 ; x2 ; :::; xn 2 R:
c) X şi Y sunt independente =)

23
P (x1 < X x2 \ y1 < Y y2 ) = P (x1 < X x2 ) P (y1 < Y y2 ) ; 8x1 ; x2 ; y1 ; y2 2
R a. î. x1 < x2 şi y1 < y2 :
Demonstraţie. a), b) Evident.
c) P (x1 < X x2 \ y1 < Y y2 ) =
FXY (x2 ; y2 ) FXY (x1 ; y2 ) FXY (x2 ; y1 ) + FXY (x1 ; y1 ) =
FX (x2 ) FY (y2 ) FX (x1 ) FY (y2 ) FX (x2 ) FY (y1 ) + FX (x1 ) FY (y1 ) =
(FX (x2 ) FX (x1 )) (FY (y2 ) FY (y1 )) = P (x1 < X x2 ) P (y1 < Y y2 ) :
În general: !
n
\ Yn
X1 ; X2 ; :::; Xn sunt independente () P Xi 2 Ai = P (Xi 2 Ai ) ; 8A1 ; :::; An
i=1 i=1
intervale sau mulţimi cu un singur element din R:
Aici Xi 2 Ai = f! 2 jXi (!) 2 Ai g.
De…niţia 3.3. a) Funcţia mas¼a de probabilitate comun¼a a variabilelor
aleatoare discrete X şi Y este de…nit¼
a de

pXY (x; y) = P (X = x \ Y = y) ; 8x; y 2 R:


b) Fie n variabile aleatoare discrete X1 ; X2 ; :::; Xn : Funcţia mas¼a de proba-
bilitate comun¼a a lor este de…nit¼a de

pX1 X2 :::Xn (x1 ; x2 ; :::xn ) = P (X1 = x1 \ X2 = x2 \ ::: \ Xn = xn ) ; 8x1 ; x2 ; :::; xn 2 R:

Propriet¼ aţi 3.2. Fie X şi Y variabile aleatoare discrete care iau o mulţime
cel mult num¼ arabil¼a de perechi de valori (xi ; yj ) ; i; j = 1; 2; ::: cu probabilit¼
aţi
nenule.
a) pXY (x; y) = 0 peste tot, exceptând punctele (xi ; yj ) ; i; j = 1; 2; ::: unde
ia valori egale cu probabilitatea comun¼ a P (X = xi \ Y = yj ) :
b) X
0 <X pXY (xi ; yj ) 1;
c) pXY (xi ; yj ) = 1;
i j
X
d) pXY (xi ; y) = pY (y) ;
i
X
e) pXY (x; yj ) = pX (x) ;
j
X X
f) FXY (x; y) = pXY (xi ; yj ) ; 8x; y 2 R:
ijxi x jjyj y
Acum pX (x) şi pY (y) sunt numite funcţii mas¼a de probabilitate marginale.
Propriet¼
aţi similare pot … scrise pentru pX1 X2 :::Xn :
De…niţia 3.4. a) Funcţia densitate de probabilitate comun¼a a dou¼
a variabile
aleatoare continue X şi Y este de…nit¼ a de derivata parţial¼
a

@ 2 FXY
fXY (x; y) = (x; y) ;
@x@y
dac¼
a exist¼
a.

24
b) Fie vectorul aleator X cu componente variabilele aleatoare continue X1 ; X2 ; :::; Xn
care au funcţia de repartiţie comun¼
a
FX (x) = P (X1 x1 \ X2 x2 \ ::: \ Xn xn ) ;
unde x este vectorul cu componentele x1 ; x2 ; :::; xn :
Funcţia densitate comun¼a corespunz¼
atoare este
@ n FX
fX (x) = (x) ;
@x1 @x2 :::@xn
dac¼
a derivatele parţiale indicate exist¼
a.
Propriet¼ aţi 3.3. a) fXY (x; y) 0 deoarece FXY este cresc¼
atoare în x şi y.
b) Din de…niţie,
Z y Z x
FXY (x; y) = P (X x \ Y y) = fXY (u; v) dudv:
1 1

c) Dac¼
a x1 < x2 şi y1 < y2 , atunci Z Z
y2 x2
P (x1 < X x2 \ y1 < Y y2 ) = fXY (x; y) dxdy:
y1 x1
d) fXY de…neşte o suprafaţ¼ a deasupra planului (x; y). Dup¼ a cum indic¼ a
proprietatea 3.3 c), probabilitatea ca variabilele aleatoare X şi Y s¼
a se a‡e
într-o anumit¼
a suprafaţ¼
a R este egal¼
a cu volumul de sub suprafaţa fXY m¼ arginit
de acea regiune, ca în …gura de mai jos.

25
Z 1 Z 1
e) fXY (x; y) dxdy = 1:
1 1
Aceast¼a proprietate rezult¼
a din proprietatea b) punând x ! 1 şi y ! 1 şi
arat¼
aZc¼
a volumul total de sub suprafaţa fXY este 1:
1
f) fXY (x; y) dy = fX (x) :
1
Aceasta rezult¼
a din Z 1 Z x
FX (x) = FXY (x; 1) = fXY (u; y) dudy;
1 1
derivând
Z 1 în raport cu x:
g) fXY (x; y) dx = fY (y) :
1
Densit¼
aţile fX şi fY din propriet¼
aţile f) şi g) se numesc densit¼aţi marginale
ale lui X, respectiv Y:

3.2 Densitate de repartiţie condiţionat¼


a şi formula lui Bayes
pentru densit¼aţi de repartiţie
Funcţia de repartiţie condiţionat¼a a variabilei aleatoare X dat …ind c¼
a alt¼
a
variabil¼
a aleatoare Y ia valoarea y este de…nit¼ a de

26
FXY (xjy) = P (X xjY = y) :
Fie X şi Y variabile aleatoare continue. Funcţia densitate de repartiţie
condiţionat¼a (pe scurt densitate condiţionat¼a ) a lui X dat …ind Y = y, no-
tat¼a fXY (xjy) este derivata funcţiei de repartiţie condiţionat¼
a corespunz¼
atoare
ei, adic¼
a
fXY (xjy) = dFXYdx(xjy) :
Avem, pentru x1 < x2 şi y1 < y2 : Z Z y2 x2

fXY (u;v)dudv
P (x1 <X x2 \y1 <Y y2 ) y1
Z x1
P (x1 < X x2 jy1 < Y y2 ) = P (y1 <Y y2 ) = y2 :
fY (v)dv
y1
Punând x1 !Z 1; x2 = x; y2 & y1 = y, obţinem:
x

fXY (u;y)du
1
FXY (xjy) = fY (y) ;
cu condiţia ca fY (y) 6= 0:
Mai departe obţinem
(3.1) fXY (xjy) = dFXYdx(xjy) = fXY (x;y)
fY (y) , dac¼
a fY (y) 6= 0:
Pentru funcţia de repartiţie condiţionat¼ a nu e valabil¼a o formul¼
a asem¼an¼
a-
toare, adic¼a FXY (xjy) 6= FXY (x;y)
FY (y) :
Când X şi Y sunt independente avem FXY (xjy) = FX (x) şi din relaţia (3.1)
obţinem
fXY (xjy) = fX (x)
şi
fXY (x; y) = fX (x) fY (y) ;
adic¼
a densitatea comun¼ a e egal¼ a cu produsul densit¼aţilor marginale când X
şi Y sunt independente.
Mai avem şi Z
x
FXY (xjy) = fXY (ujy) du:
1
Extinderile pentru mai multe variabile aleatoare sunt imediate. Plecând de
la
P (A \ B \ C) = P (AjB \ C) P (BjC) P (C)
pentru trei evenimente A; B şi C, avem în cazul a trei variabile aleatoare
continue X; Y şi Z;
fXY Z (x; y; z) = fXY Z (xjy; z) fY Z (yjz) fZ (z) :
Pentru cazul a n variabile aleatoare continue X1 ; X2 ; :::; Xn , componente ale
vectorului aleator X, putem scrie
fX (x) = fX1 X2 :::Xn (x1 jx2 ; :::; xn ) fX2 :::Xn (x2 jx3 ; :::; xn ) :::fXn 1 Xn (xn 1 jxn ) fXn (xn ) :
Dac¼ a X1 ; X2 ; :::; Xn sunt independente, obţinem
fX (x) = fX1 (x1 ) fX2 (x2 ) :::fXn (xn ) :
Formula lui Bayes pentru densit¼ aţi de repartiţie. Dac¼ a X şi Y sunt
variabile aleatoare continue, atunci

27
fY X (yjx)fX (x) fY X (yjx)fX (x)
fXY (xjy) = fY (y) =Z 1 ;
fY X (yj )fX ( )d
1
dac¼
a fY (y) 6= 0:

3.3 Covarianţ¼
a şi corelaţie
Fie X şi Y variabile aleatoare discrete care iau o mulţime cel mult num¼ arabil¼
a
de perechi de valori (xi ; yj ) ; i; j = 1; 2; ::: cu probabilit¼ aţi nenule sau variabile
aleatoare continue.
De…niţia 3.5. Fie n; m 2 N:
a) Momentele comune nm ale variabilelor aleatoare X şi Y sunt date de,
dac¼a exist¼
a, 8 XX
>
> xm n
i yj pXY (xi ; yj ) , dac¼a X şi Y sunt discrete,
<
n m Z i jZ
nm = E (X Y ) = 1 1
>
>
: xn y m fXY (x; y) dxdy, dac¼ a X şi Y sunt continue.
1 1
b) Similar, momentele centrate comune ale lui X şi Y , când exist¼
a, sunt date
de
n m
nm = E ((X mX ) (Y mY ) ) :
Observaţii. Cu notaţiile folosite aici, mediile lui X şi Y sunt 10 , respectiv,
01 . De exemplu, folosind
Z Z de…niţia 3.5 a) pentru XZ şi Y continue,
Z obţinem
1 1 1 1
10 = E (X) = xfXY (x; y) dxdy = x fXY (x; y) dydx =
Z 1
1 1 1 1

xfX (x) dx;


1
unde fX este densitatea marginal¼ a a lui X. Astfel vedem c¼ a acest rezultat
e identic cu cel din cazul unei singure variabile aleatoare.
Aceast¼a observaţie este adev¼ arat¼a şi pentru dispersiile individuale. Ele sunt
20 , respectiv 02 ; şi pot … g¼
a site din de…niţia 3.5 b) cu înlocuiri corespunz¼ atoare
pentru n şi m. Ca şi în cazul unei singure variabile aleatoare avem
2 2
20 = 20 10 sau X = 20 m2X ;
respectiv
2 2
02 = 02 01 sau Y = 02 m2Y :
De…niţia 3.6. Se numeşte covarianţ¼a a lui X şi Y
11 = cov (X; Y ) = E ((X mX ) (Y mY )) :
Covarianţa e o m¼ arime a interdependenţei lui X şi Y:
Proprietatea 3.4. Covarianţa e legat¼ a de nm prin
11 = 11 10 01 = 11 m m
X Y :
Demonstraţie. 11 = E ((X mX ) (Y mY )) = E (XY mY X mX Y + mX mY ) =
E (XY ) mY E (X) mX E (Y ) + mX mY = 11 10 01 10 01 + 10 01 =
11 10 01 :
De…niţia 3.7. Coe…cientul de corelaţie al lui X şi Y este
11 11
= (X; Y ) = p = :
20 02 X Y

28
Proprietatea 3.5. j j 1:
2 2
Demonstraţie. [t (X mX ) + Y mY ] 0; 8t 2 R =) E [t (X mX ) + Y mY ] =
2 2 2
20 t
+ 2 11 t + 02 0; 8t 2 R =) =4 4 20 02 11 0 =) 11
20 02=) j j 1:
Coe…cientul de corelaţie este f¼ ar¼
a dimensiune. El este şi independent de
origine, adic¼
a 8a1 ; a2 ; b1 ; b2 2 R cu a1 ; a2 > 0 se poate demonstra c¼a
(a1 X + b1 ; a2 Y + b2 ) = (X; Y ) :
Proprietatea 3.6. Dac¼ a X şi Y sunt independente, atunci
11 = 0 şi = 0:
Demonstraţie. Fie Z X Zşi Y continue. Z Z
1 1 1 1
indep.
11 = E (XY ) = xyfXY (x; y) dxdy = xyfX (x) fY (y) dxdy =
Z 1 Z 1 1 1 1 1

xfX (x) dx yfY (y) dy = mX mY =) 11 = 11 mX mY = 0 =)


1 1
= 0:
Similar se poate demonstra dac¼ a X şi Y sunt discrete.
Dac¼a X şi Y sunt independente, atunci
(3.2) E (g (X) h (Y )) = E (g (X)) E (h (Y )) ;
dac¼a mediile exist¼a.
Când coe…cientul de corelaţie al dou¼ a variabile aleatoare se anuleaz¼
a, spunem

a ele sunt necorelate.
Observaţii. 1) X şi Y sunt necorelate () E (XY ) = E (X) E (Y ).
(Rezult¼a din de…niţii şi proprietatea 3.4.)
2) X, Y independente =) X, Y necorelate. (Rezult¼ a din de…niţie şi
proprietatea 3.6.)
3) Reciproca nu e adev¼ arat¼a.
2 1 1 2
Exemplul 3.1. Fie X 1 1 1 1 şi Y = X 2 :
4 4 4 4
1 4
Avem Y 1 1 ,
82 1
2
>
> 4,
pentru (x; y) = ( 2; 4) ;
< 1
pXY (x; y) = 4,
pentru (x; y) = ( 1; 1) ;
1
>
> 4,
pentru (x; y) = (1; 1) ;
: 1
4,
pentru (x; y) = (2; 4) ;
mX = ( 2) 14 + ( 1) 14 + 1 14 + 2 14 = 0;
mY = 1 21 + 4 12 = 52 ;
1 1 1 1
11 = ( 2) 4 4 + ( 1) 1 4 + 1 1 4 + 2 4 4 = 0:
Deci
11 = 11 mX mY = 0 =) = X11Y = 0 =) X şi Y sunt necorelate.
Pe de alt¼
a parte,
P (X 2\Y 1) = FXY ( 2; 1) = 0;
iar
P (X 2) P (Y 1) = FX ( 2) FY (1) = 41 12 = 81 ;
deci

29
P (X 2\Y 1) 6= P (X 2) P (Y 1) =) X şi Y nu sunt inde-
pendente.
Coe…cientul de corelaţie m¼ asoar¼
a interdependenţa liniar¼a a variabilelor aleatoare,
adic¼a acurateţea cu care o variabil¼ a aleatoare poate … aproximat¼ a printr-o
funcţie liniar¼a de cealalt¼
a. Pentru a vedea asta, consider¼ am problema
aproxim¼ arii unei variabile aleatoare X printr-o funcţie liniar¼
a de o a doua vari-
abil¼a aleatoare Y , aY + b, unde a şi b sunt alese a. î. eroarea medie p¼ atratic¼
ae
de…nit¼ a de
2
(3.3) e = E [X (aY + b)]
este minim¼ a. Avem
e = E X 2 + a2 Y 2 + b2 2aXY 2bX + 2abY = E X 2 + a2 E Y 2 +
b2 2aE (XY ) 2bmX + 2abmY ;
@e 2
@a = 2aE Y 2E (XY ) + 2bmY ;
@e
@b = 2b 2m X + 2amY :
Rezolvând sistemul
@e
@a = 0;
@e
@b = 0;
obţinem c¼ a minimul e atins când
a = XY
şi
b = mX amY :
Înlocuind aceste valori în relaţia (3.3) obţinem eroarea medie p¼ atratic¼a
minim¼ a 2X 1 2
. Vedem c¼ a o potrivire exact¼ a în sensul mediei p¼ atratice e
atins¼ a când j j = 1 şi aproximarea liniar¼ a este cea mai rea când = 0: Când
= 1, X şi Y se numesc pozitiv perfect corelate, în sensul c¼ a valorile pe care le
iau sunt pe o dreapt¼ a cu pant¼a pozitiv¼a; ele sunt negativ perfect corelate când
= 1 şi valorile lor se a‡a¼ pe o dreapt¼ a cu pant¼a negativ¼
a. Aceste dou¼ a cazuri
extreme sunt ilustrate în …gura de mai jos.

30
Valoarea lui j j descreşte când împr¼
aştierea valorilor în jurul dreptelor creşte.
În demonstraţia faptului c¼ a j j 1; am obţinut
2
11 20 02 :
Folosind un procedeu similar, putem ar¼ ata de asemenea c¼ a

E 2 (XY ) E X2 E Y 2 :
Ultimele dou¼ a relaţii sunt inegalit¼aţile lui Schwarz.
De…niţia 3.8. Fie X un vector coloan¼ a aleator cu componentele X1 ; X2 ; :::; Xn
şi mX vectorul coloan¼ a având componente mediile lui X1 ; X2 ; :::; Xn : Matricea
de covarianţ¼a este 0 1
var (X1 ) cov (X1 ; X2 ) ::: cov (X1 ; Xn )
B cov (X2 ; X1 ) var (X2 ) ::: cov (X2 ; Xn ) C
T B C
= E (X mX ) (X mX ) =B .. .. . .. C:
@ . . .. . A
cov (Xn ; X1 ) cov (Xn ; X2 ) ::: var (Xn )
este o matrice n n cu având pe diagonal¼ a varianţe şi în afara diagonalei
covarianţe. Deoarece cov (Xi ; Xj ) = cov (Xj ; Xi ), matricea de covarianţ¼ a este
simetric¼
a.
Urm¼ atorul rezultat este o generalizare a relaţiei (3.2).
Teorem¼ a. Dac¼a X1 ; X2 ; :::; Xn sunt independente, atunci
E (g1 (X1 ) g2 (X2 ) :::gn (Xn )) = E (g1 (X1 )) E (g2 (X2 )) :::E (gn (Xn )) ;
unde gj (Xj ) este o funcţie arbitrar¼ a de Xj . Se presupune c¼ a toate mediile
care sunt scrise exist¼
a.
Xn
Propoziţie. Fie X1 ; X2 ; :::; Xn variabile aleatoare şi Y = Xi : Atunci
i=1

31
n
X X
2 2
Y = Xi +2 cov (Xi ; Xj ) :
i=1 1 i<j n
În particular, dac¼
a X1 ; X2 ; :::; Xn sunt independente, atunci
Xn
2 2
Y = Xi :
i=1
Lema 3.1. Dac¼
a X e un vector aleator şi Y =AX, atunci

cov (Y) = Acov (X) AT :

32
4 Principalele repartiţii discrete şi propriet¼
aţile
lor
4.1 Repartiţia binomial¼
a
O succesiune de probe e f¼ acut¼ a astfel încât
a) pentru …ecare prob¼ a sunt doar dou¼ a rezultate posibile, s¼
a spunem succes
şi eşec;
b) probabilit¼
aţile apariţiei acestor rezultate r¼
amân aceleaşi pe durata pro-
belor;
c) probele sunt independente.
Probele f¼acute în aceste condiţii se numesc probe Bernoulli.
Not¼ am evenimentul "succes" cu S şi evenimentul "eşec" cu F . Fie P (S) = p
şi P (F ) = q, unde p + q = 1: Rezultate posibile din efectuarea unei succesiuni
de probe Bernoulli pot … reprezentate simbolic prin
S \ S \ F \ F \ S \ F \ S \ S \ S \ ::: \ F \ F
F \ S \ F \ S \ S \ F \ F \ F \ S \ ::: \ S \ F
..
.
şi, datorit¼
a independenţei, probabilit¼aţile acestor rezultate posibile sunt uşor
de calculat. De exemplu,
P (S \ S \ F \ F \ S \ F \ :::F \ F ) = P (S) P (S) P (F ) P (F ) P (S) P (F ) :::P (F ) P (F ) =
ppqqpq:::qq:
Repartiţia unei variabile aleatoare X reprezentând num¼ arul de succese
dintr-o succesiune de n probe Bernoulli, indiferent de ordinea în care apar este
frecvent de interes considerabil. E clar c¼ a X e o variabil¼ a aleatoare discret¼ a
care ia valorile 0; 1; 2; :::; n. Pentru a determina funcţia mas¼ a de probabilitate,
consider¼ am pX (k), probabilitatea de a avea exact k succese în n probe. Acest
eveniment poate ap¼ area în la fel de multe moduri precum num¼ arul de submulţimi
de k elemente ale unei mulţimi de n elemente. De aici, num¼ arul de moduri în
care k succese se pot întâmpla în n probe este
Cnk = k!(nn! k)!
şi probabilitatea asociat¼ a cu …ecare mod este pk q n k : Din acest motiv avem

pX (k) = Cnk pk q n k
; k = 0; 1; 2; :::; n: (4.1)
Datorit¼a similarit¼
aţii cu termenii binomului lui Newton
Xn
n
(a + b) = Cnk ak bn k ;
k=0
repartiţia de…nit¼a de relaţia (4.1) se numeşte repartiţie binomial¼a. Ea are
doi parametri, anume n şi p. O variabil¼ a aleatoare X având repartiţie binomial¼a
se noteaz¼ a X B (n; p).
Forma unei repartiţii binomiale e determinat¼ a de valorile celor doi parametri
ai ei, n şi p. În general, n se d¼a ca o parte a problemei şi p trebuie estimat din
observaţii.

33
O reprezentare a funcţiei mas¼ a de probabilitate pX (k) pentru n = 10 şi
p = 0; 2 este în …gura de mai jos.

Vârful repartiţiei se va muta spre dreapta când p creşte, atingând o repartiţie


simetric¼
a când p = 0; 5. Consider¼ am raportul
n!
pX (k) k k n k
Cn p q p (n k+1)p
pX (k 1) = 1 k 1 n k+1 =
pk
Cn q
k!(n k)!
n!
q
= kq = 1 + (n k+1)p kq
kq =
(k 1)!(n k+1)!
(n+1)p k(p+q) (n+1)p k
1+ kq = 1 + kq :
Observ¼am c¼a pX (k) > pX (k 1) () k < (n + 1) p şi pX (k) < pX (k 1) ()
k > (n + 1) p: Deci, dac¼ a de…nim k 2 Z prin
(n + 1) p 1 < k (n + 1) p;
valoarea lui pX (k) creşte de la k = 0 şi îşi atinge valoarea maxim¼ a când
k = k , apoi descreşte. Dac¼ a (n + 1) p 2 Z, valoarea maxim¼ a se atinge în
ambele pX (k 1) şi pX (k ). k este astfel un modul al acestei repartiţii şi se
numeşte adesea "cel mai probabil num¼ ar de succese".
pX (k) este tabelat¼ a ca o funcţie de n şi p. Tabelul A.1 din …gurile de mai
jos d¼
a valorile ei pentru n = 2; 3; :::; 10 şi p = 0; 01; 0; 05; :::; 0; 5:

34
35
Calculul lui pX (k) devine greu când n devine mare; se foloseşte aproximarea
Poisson a repartiţiei binomiale.
Funcţia de repartiţie FX (x) pentru o repartiţie binomial¼
a este dat¼
a de
[x]
X
FX (x) = Cnk pk q n k ;
k=0
unde [x] este partea întreag¼
a a lui x.
Propriet¼ aţi 4.1. Fie X B (n; p). Atunci
a) mX = np;
b) 2X = npq:
Xn n
X n
X
n!
Demonstraţie. a) mX = kpX (k) = kCnk pk q n k
= k k n k
k!(n k)! p q =
k=0 k=1 k=1
n
X n
X n
X1
(n 1)! 1 k 1 n 1 (k 1) k 1=i
n k n k
(k 1)!(n 1 (k 1))! p q = np Cnk 1p q = np Cni 1p
i n 1 i
q =
k=1 k=1 i=0
n 1
np (p + q) = np:
Xn n
X n
X
b) E X 2 = k 2 pX (k) = k 2 Cnk pk q n k
= np kCnk 1 k 1 n 1 (k 1)
1p q =
" n k=0 k=1
n
k=1 #
X X k 1=i; a)
np (k 1) Cnk 11 pk 1 n 1 (k 1)
q + Cnk 1 k 1 n 1 (k 1)
1p q =
k=1 k=1

36
n
!
X1 a)
np iCni 1 pi q n 1 i +1 = np (mY + 1) = np [(n 1) p + 1] ;
i=0
unde Y B (n 1; p) :
2 2
X = E X m2X = np [(n 1) p + 1] n2 p2 = n2 p2 np2 + np n2 p2 =
np (1 p) = npq:
Faptul c¼ a mX = np sugereaz¼ a c¼
a parametrul p poate … estimat pe baza
valorii medii a datelor observate.
O alt¼a formulare care duce la repartiţia binomial¼ a este de…nirea variabilei
aleatoare Xj ; j = 1; 2; :::; n, reprezentând rezultatul celei de-a j-a probe Bernoulli.
Dac¼ a punem
0, dac¼a proba j este un eşec,
Xj =
1; dac¼a proba j este un succes,
atunci
X = X1 + X2 + ::: + Xn
d¼a num¼ arul de succese în n probe. Din de…niţie, X1 ; X2 ; :::; Xn sunt variabile
aleatoare independente.
Deoarece
E (Xj ) = 0 q + 1 p = p; j = 1; 2; :::; n;
rezult¼a c¼
a
E (X) = E (X1 + X2 + ::: + Xn ) = E (X1 )+E (X2 )+:::+E (Xn ) = p + p + ::: + p =
| {z }
n
np;
ceea ce coincide cu proprietatea 4.1 a).
Analog, deoarece
E Xj2 = 02 q + 12 p = p; j = 1; 2; :::; n;
2 2 2
Xj = E Xj [E (Xj )] = p p2 = p (1 p) = pq; j = 1; 2; :::; n;
din independenţa lui X1 ; X2 ; :::; Xn rezult¼
a c¼
a
Xn
2 2
X = Xj = pq
|
+ pq + ::: + pq = npq;
{z }
j=1 n
ceea ce coincide cu proprietatea 4.1 b).
Teorema 4.1. Fie X1 B (n1 ; p) şi X2 B (n2 ; p) variabile aleatoare
independente şi Y = X1 + X2 : Atunci Y B (n1 + n2 ; p) :

4.2 Repartiţia hipergeometric¼


a
Fie Z variabila aleatoare care d¼ a num¼ arul de bile negre care sunt extrase când
un eşantion de m bile este extras (f¼ ar¼
a revenire) dintr-un lot de n bile având
n1 bile negre şi n2 bile albe (n1 + n2 = n). Funcţia mas¼ a de probabilitate a
variabilei aleatoare Z este
Ck Cm k
pZ (k) = n1 C mn n1 ; k = 0; 1; :::; min (n1 ; m) :
n
Spunem c¼ a Z are repartiţie hipergeometric¼a.
Se poate ar¼ ata c¼
a
mZ = mn n
1
;
2 mn1 (n n1 )(n m)
Z = n2 (n 1) :

37
4.3 Repartiţia geometric¼
a
Fie X num¼ arul de probe Bernoulli pân¼ a la (şi incluzând) prima apariţie a succe-
sului. X e variabil¼a aleatoare discret¼
a având ca valori toate numerele naturale.
Funcţia ei mas¼a0de probabilitate este1

\ ::: \ F} \ S A = P (F ) P (F ) :::P (F )P (S) = q k


pX (k) = P @|F \ F {z 1
p; k =
| {z }
k 1 k 1
1; 2; ::::
Aceast¼a repartiţie este cunoscut¼
a ca repartiţia geometric¼a cu parametrul p,
unde numele provine de la similaritatea cu termenii progresiei geometrice. O
reprezentare a lui pX (k) e dat¼ a mai jos.

Funcţia de repartiţie corespunz¼ atoare este


[x] [x] [x] [x]
X X X X
k 1
FX (x) = pX (k) = q p=p qk 1
= (1 q) qk 1
=1 q [x] ,
k=1 k=1 k=1 k=1
dac¼
ax 1
şi
FX (x) = 0; dac¼ a x < 1:
Media şi dispersia lui X se calculeaz¼
a astfel: !
1
X 1
X 1
X n
X
d d d
E (X) = kq k 1 p = p dq q k
= p dq q k = p dq q lim q k 1
=
n!1
k=1 k=1 k=1 k=1
n+1
d
p dq q lim 1 1q q d
= p dq q
1 q = p 1 q+q
(1 q)2
= p1 :
n!1
1
" 1 1
# 1
X X X X
2 2 k 1 k 1 k 2 1 d2
E X = k q p=p kq +q k (k 1) q = p +pq dq 2 qk =
k=1 k=1 k=2 k=2

38
!
1
X h i
1 d2 2 q 2 q2 2q(1 q)+q 2
p +pq dq 2 q k
= p1 +pq dq
d
2 1 q q = p1 +pq dq
d
2 1 q = p1 +pq dq
d
(1 q)2
=
k=2
1 d 2q q 2 1 (2 2q)(1 q)2 +(2q q 2 )2(1 q) 1 2((1 q)2 +2q q 2 )
p + pq dq (1 q)2
= p + pq (1 q)4
= p +q (1 q)2
=
1 2q
p + (1 q)2
:
2 2 1 2q 1 p+2q 1 q 1 p
X =E X2 [E (X)] = p + p2 p2 = p2 = p2 = p2 :

4.4 Repartiţia binomial¼


a negativ¼
a
O generalizare a repartiţiei geometrice este repartiţia variabilei aleatoare X
reprezentând num¼ arul de probe Bernoulli necesare pentru apariţia celui de-al
r-lea succes, unde r 2 N este dat.
Pentru a determina pX (k) în acest caz, …e A evenimentul ca primele k 1
probe s¼a dea exact r 1 succese, indiferent de ordinea lor, şi B evenimentul ca
un succes s¼a apar¼
a la proba k. Atunci, datorit¼
a independenţei,
pX (k) = P (A \ B) = P (A) P (B) :
Avem
P (B) = p
şi
P (A) = pZ (r 1) = Ckr 11 pr 1 q k r ;
unde Z B (k 1; p) :
Obţinem

pX (k) = Ckr 1 r k r
1p q ;k = r; r + 1; :::: (4.2)
Repartiţia de…nit¼a de relaţia (4.2) se numeşte repartiţie binomial¼a negativ¼a
sau Pascal şi are parametrii r şi p. Este adesea notat¼ a prin N B (r; p). Observ¼ am

a ea se reduce la repartiţia geometric¼ a când r = 1:
O variant¼ a a acestei repartiţii se obţine punând Y = X r: Variabila
aleatoare Y este num¼ arul de probe Bernoulli dincolo de r necesare pentru re-
alizarea celui de-al r-lea succes, sau poate … interpretat¼ a ca num¼ arul de eşecuri
înainte de cel de-al r-lea succes.
Funcţia mas¼ a de probabilitate a lui Y , pY (m), e obţinut¼ a din relaţia (4.2)
înlocuind k prin m + r :
r 1 r m m r m
pY (m) = Cm+r 1p q = Cm+r 1 p q ; m = 0; 1; 2; ::::
Variabila aleatoare Y are p;roprietatea convenabil¼ a c¼a valorile ei încep de la
0 şi nu de la r ca valorile lui X:
Reamintind o de…niţie mai general¼ a a coe…cientului binomial
Caj = a(a 1):::(a
j!
j+1)
; 8a 2 R; j 2 N ;
avem
(m+r 1)! (m+r 1)(m+r 2):::r m
m
Cm+r 1 = m!(r 1)! = m! = ( 1) ( r)( r 1):::( m!
r m+1)
=
m m
( 1) C r :
De aici,
m
pY (m) = C mr pr ( q) ; m = 0; 1; 2; :::;

39
acesta …ind motivul pentru numele "repartiţie binomial¼ a negativ¼
a".
Media şi dispersia variabilei aleatoare X pot … determinate observând c¼ aX
poate … reprezentat¼ a prin
X = X1 + X2 + ::: + Xr ;
unde Xj este num¼ arul de probe dintre cel de-al (j 1)-lea şi (inclusiv) cel
de-al j-lea succes. Aceste variabile aleatoare sunt independente, …ecare având
a în care media este p1 şi dispersia 1p2p . De aceea media
repartiţie geometric¼
sumei este suma mediilor şi, din independenţ¼ a, dispersia sumei este suma dis-
persiilor, adic¼
a:
mX = pr ; 2X = r(1p2 p) :
Deoarece Y = X r, avem:
mY = pr r; 2Y = r(1p2 p) :

4.5 Repartiţia multinomial¼


a
O generalizare a probelor Bernoulli este s¼ a relax¼ am cererea s¼ a …e doar dou¼ a
rezultate posibile pentru …ecare prob¼ a. Fie r rezultate posibile pentru …ecare
prob¼a, notate cu E1 ; E2; :::; Er şi …e P (Ei ) = pi ; i = 1; 2; :::; r cu p1 +p2 +:::+pr =
1:
Dac¼a variabila aleatoare Xi ; i = 1; 2; :::; r; reprezint¼ a num¼ arul de Ei într-o
succesiune de n probe, funcţia mas¼ a de probabilitate comun¼ a a lui X1 ; X2 ; :::; Xr
este dat¼a de
n!
pX1 X2 :::Xr (k1 ; k2 ; :::; kr ) = pk1 pk2 :::pkr r ; (4.3)
k1 !k2 !:::kr ! 1 2
unde kj = 0; 1; 2; :::; j = 1; 2; :::; r; şi k1 + k2 + ::: + kr = n:
Demonstraţia formulei 4.3. Consider¼ am evenimentul de a avea exact k1
rezultate E1 ; k2 rezultate E2 ; :::; kr rezultate Er în n probe. Acest eveniment
poate ap¼ area în la fel de multe moduri precum num¼ arul de moduri de a plasa
k1 litere E1 ; k2 litere E2 ; :::; kr litere Er în n cutii a. î. …ecare cutie s¼ a aib¼
a
exact o liter¼ a. De aici, num¼ arul de moduri c¼ autat este produsul dintre num¼ arul
de moduri de a plasa k1 litere E1 în n cutii, num¼ arul de moduri de a plasa k2
litere în cele n k1 cutii r¼ amase neocupate, ş.a.m.d., adic¼ a
(n k1 )! (n k1 k2 ::: kr 1 )!
Cnk1 Cnk2 k1 :::Cnkr k1 k2 ::: kr 1 = k1 !(nn! k1 )! k2 !(n k1 k2 )! ::: kr !0! =
n!
k1 !k2 !:::kr !
şi probabilitatea asociat¼ a cu …ecare mod, datorit¼ a independenţei, este pk11 pk22 :::pkr r :
Relaţia (4.3) de…neşte funcţia mas¼ a de probabilitate comun¼ a a repartiţiei
multinomiale, numit¼ a aşa deoarece are forma temenului general din expansiunea
n
multinomial¼ a a lui (p1 + p2 + ::: + pr ) . Repartiţia multinomial¼ a se reduce la
repartiţia binomial¼a când r = 2, şi cu p1 = p; p2 = q; k1 = k şi k2 = n k:
Deoarece Xi B (n; pi ), avem
mXi = npi ; 2Xi = np1 (1 pi ) ;
şi se poate ar¼ata c¼a avem
cov (Xi ; Xj ) = npi pj ; i; j = 1; 2; :::; r; i 6= j:

40
4.6 Repartiţia Poisson
Aceast¼ a repartiţie este folosit¼ a în modelele matematice pentru a descrie, într-un
interval de timp speci…c, evenimente ca emisia de particule dintr-o substanţ¼ a
radioactiv¼ a, sosirile de pasageri la un aeroport, distribuţia particulelor de praf
într-un anumit spaţiu, sosirile de maşini la o intersecţie, şi alte fenomene simi-
lare.
Pentru a …xa ideile, consider¼ am problema sosirii pasagerilor la o staţie de
autobuz într-un interval de timp speci…cat. Not¼ am X (0; t) num¼ arul de sosiri
din intervalul de timp [0; t); X (0; t) e o variabil¼ a aleatoare discret¼
a luând valori
posibile 0; 1; 2; :::, iar repartiţia ei depinde de t. Funcţia ei mas¼
a de probabilitate
se scrie

pk (0; t) = P [X (0; t) = k] ; k = 0; 1; 2; :::; (4.4)


pentru a ar¼ata dependenţa ei explicit¼ a de t.
Facem urm¼ atoarele ipoteze de baz¼ a:
1) Dac¼a t1 < t2 < ::: < tn , atunci variabilele aleatoare X (t1 ; t2 ) ; X (t2 ; t3 ) ; :::; X (tn 1 ; tn )
sunt independente, adic¼ a, numerele de pasageri care sosesc în intervale de timp
care nu se suprapun sunt independente unul de cel¼ alalt.
2) Pentru t su…cient de mic,

p1 (t; t + t) = t + o ( t) ; (4.5)
unde o ( t) este o funcţie a. î.

o ( t)
lim = 0: (4.6)
t!0t
Aceast¼a ipotez¼
a spune c¼a, pentru t su…cient de mic, probabilitatea de a
avea exact o sosire este proporţional¼
a cu lungimea t. Parametrul din relaţia
(4.5) este numit densitatea medie sau rata medie a sosirilor.
3) Pentru t su…cient de mic,
1
X
pk (t; t + t) = o ( t) : (4.7)
k=2

Aceast¼a condiţie implic¼ a faptul c¼


a probabilitatea de a avea dou¼
a sau mai
multe sosiri într-un interval su…cient de mic este neglijabil¼ a.
Din relaţiile (4.5) şi (4.7) rezult¼
a
1
X
p0 (t; t + t) = 1 pk (t; t + t) = 1 t + o ( t) : (4.8)
k=1

Determin¼am p0 (0; t). Pentru a nu avea nicio sosire în intervalul [0; t + t),
trebuie s¼
a nu avem nicio sosire în ambele subintervale [0; t) şi [t; t + t). Da-
torit¼
a independenţei sosirilor în intervale nesuprapuse avem

41
p0 (0; t + t) = p0 (0; t) p0 (t; t + t) = p0 (0; t) [1 t + o ( t)] : (4.9)

Rearanjând relaţia (4.9) şi împ¼


h arţind ambii
i membri prin t obţinem
p0 (0;t+ t) p0 (0;t) o( t)
t = p0 (0; t) t :
Punând t ! 0, obţinem ecuaţia diferenţial¼ a

dp0 (0; t)
= p0 (0; t) :
dt
Soluţia ei satisf¼
acând condiţia iniţial¼
a p0 (0; 0) = 1 este
t
p0 (0; t) = e : (4.10)
Determinarea lui p1 (0; t) este similar¼ a. O sosire în intervalul [0; t + t) poate
… îndeplinit¼
a doar având 0 sosiri în subintervalul [0; t) şi o sosire în [t; t + t),
sau o sosire în [0; t) şi nicio sosire în [t; t + t). De aici avem

p1 (0; t + t) = p0 (0; t) p1 (t; t + t) + p1 (0; t) p0 (t; t + t) : (4.11)

Înlocuind relaţiile (4.5), (4.8) şi (4.10) în relaţia (4.11) obţinem


p1 (0;t+ t) p1 (0;t)
p1 (0; t + t) = e t ( t + o ( t))+p1 (0; t) (1 t + o ( t)) =) t =
t o( t) o( t)
e + t + p1 (0; t) + t :
Punând t ! 0, obţinem

dp1 (0; t) t
= p1 (0; t) + e ; p1 (0; 0) = 0; (4.12)
dt
ceea ce conduce la
t
p1 (0; t) = te : (4.13)
Continuând în acest fel, g¼
asim pentru termenul general
k
( t) e t
pk (0; t) = ; k = 0; 1; 2; :::: (4.14)
k!
Relaţia (4.14) d¼a funcţia mas¼a de probabilitate a lui X (0; t), num¼ arul de
sosiri în intervalul de timp [0; t) cu condiţiile de mai sus şi de…neşte o repartiţie
Poisson cu parametrii şi t. Parametrii şi t pot … înlocuiţi de un singur
parametru = t şi astfel putem scrie
k
e
pk (0; t) = ; k = 0; 1; 2; :::: (4.15)
k!
Media lui X (0; t) este

42
1
X 1
X k 1
X k 1
k
E (X (0; t)) = kpk (0; t) = e = e = e e = :
k! (k 1)!
k=0 k=0 k=1
(4.16)
Calcul¼
am şi dispersia: " #
X1 1
X 1
X 1
X 1
X
k 2 k
k k (k 1) k k
E X 2 (0; t) = k 2 pk (0; t) = e k! =e (k 1)! =e (k 1)! + (k 1)! =
" 1
k=0
1
# k=0 k=1 k=1 k=1
X k 2
X k 1
2 2 2
e (k 2)! + (k 1)! = e e + e = + :
k=2 k=1
2 2
X(0;t) = E X 2 (0; t) [E (X (0; t))] = : (4.17)
Din relaţia (4.16) se vede c¼ a parametrul este egal cu media num¼ arului de
sosiri pe unitatea de timp; numele "rata medie a sosirilor" pentru este astfel
justi…cat. În determinarea valorii acestui parametru într-o problem¼ a dat¼ a, el
poate … estimat din observaţii prin m n , unde m este num¼ a rul observat de sosiri
în n unit¼ aţi de timp. Similar, deoarece = t, reprezint¼ a num¼ arul mediu de
sosiri în intervalul de timp [0; t) :
Din relaţiile (4.16) şi (4.17) se vede c¼a media şi dispersia cresc când rata
medie creşte. În …gura al¼ aturat¼
a e reprezentat¼a funcţia mas¼ a de probabilitate
pentru repartiţia Poisson pentru
a) = 0; 5;
b) = 1;
c) = 4:

43
În general, dac¼a examin¼ am raportul pkpk (0;t)
1 (0;t)
, cum am f¼
acut la repartiţia
binomial¼a, se arat¼
a c¼
a pk (0; t) creşte şi apoi descreşte când k creşte,
atingându-şi maximul când k = [ ] :

44
Tabelul A.2 din …gurile de mai jos d¼ a funcţia mas¼a de probabilitate a repar-
tiţiei Poisson pentru anumite valori ale lui dintre 0; 1 şi 10. Pentru = 10,
avem p23 (0; t) = 0; 0002 şi p24 (0; t) = 0; 0001. În loc de " t" în tabelul A.2 se
va citi " ".

45
Teorema 4.2. Dac¼ a X şi Y sunt variabile aleatoare independente având
repartiţii Poisson cu parametrii 1 , respectiv 2 , atunci variabila aleatoare Y =
X1 + X2 are repartiţie Poisson cu parametrul 1 + 2 .
Propoziţie. Dac¼ a o variabil¼ a aleatoare X este repartizat¼ a Poisson cu para-
metrul , atunci o variabil¼ a aleatoare Y , care este obţinut¼ a din X selectând
doar cu probabilitatea p …ecare din itemii num¼ araţi de X, este de asemenea
repartizat¼ a Poisson cu parametrul p :
Demonstraţie. Dat …ind c¼ a X = r, repartiţia lui Y este binomial¼ a cu
parametrii r şi p, deci:
r k
P (Y = kjX = r) = Crk pk (1 p) ; k = 0; 1; 2; :::; r:
Din teorema probabilit¼ aţii totale avem
1
X X1
k r k r r=n+k
P (Y = k) = P (Y = kjX = r) P (X = r) = Crk p (1 p) r! e
=
r=k r=k
1
X 1
X
k pk (1 p)n n+k e (p )k e [(1 p) ]n (p )k e e(1 p)
(p )k e p
Cn+k (n+k)! = k! n! = k! = k! ; k=
n=0 n=0
0; 1; 2; ::::
Aceast¼ a propoziţie poate … folosit¼
a, de exemplu, pentru situaţii în care Y e
num¼ arul de urmaşi ai unei insecte când X e num¼ arul de ou¼a depuse, sau Y e
num¼ arul de uragane dezastruoase când X e num¼ arul total de uragane care apar
într-un an dat, sau Y e num¼ arul pasagerilor care nu pot urca la bordul unui
zbor dat din cauza suprarezerv¼ arilor, când X este num¼ arul de sosiri de pasageri.

4.6.1 Repartiţii spaţiale


Repartiţia Poisson a fost dat¼a pe baza sosirilor în timp, dar acelaşi argument se
aplic¼
a la repartiţia punctelor în spaţiu. Consider¼am repartiţia defectelor
într-un material. Num¼ arul de defecte într-un anumit volum are o repartiţie
Poisson dac¼a ipotezele 1-3 sunt valide, cu intervalele de timp înlocuite de volume,

46
şi este rezonabil s¼a presupunem c¼ a probabilitatea de a g¼asi k defecte în orice
regiune depinde numai de volum şi nu de forma regiunii.
Alte situaţii …zice în care repartiţia Poisson e folosit¼a includ num¼ arul de
bacterii pe o plac¼ a Petri, repartiţia fertilizatoarelor împr¼
aştiate cu avionul pe
un câmp şi repartiţia poluanţilor industriali într-o regiune dat¼ a.

4.6.2 Aproximarea Poisson a repartiţiei binomiale


Fie X B (n; p).
n k
pX (k) = Cnk pk (1 p) ; k = 0; 1; 2; :::; n:
Consider¼am cazul când n ! 1 şi p ! 0 a. î. np = r¼
amâne …xat.
Observ¼am c¼
a este media lui X, care e presupus¼ a a r¼
amâne constant¼
a. Atunci
k n k
pX (k) = Cnk n 1 n ; k = 0; 1; 2; :::; n:
Deoarece n ! 1, factorialele n! şi (n k)! care apar în Cnk = k!(nn! k)! pot …
aproximate prin formula lui Stirling
1 1
n! = (2 ) 2 e n nn+ 2 :
Obţinem
1 1 n k+ 12
(2 ) 2 e n
nn+ 2 k n k k
n n k
pX (k) = 1
n+k (n n k+ 1 n 1 n = k!ek n k 1 n :
k!(2 )2 e k) 2

Deoarece
c n
lim 1 + n = ec ;
n!1
avem
n k+ 21
n 1 1 1
lim n k = n k+ 1
= n k+ 1
= e k ;
n!1 lim (1 k
) 2 lim 2
n!1 n n n!1 n
lim
n!1
(1 k
n )
n k
h n
i lim n
n
k
n!1
lim 1 n = lim 1 n =e :
n!1 n!1
Obţinem
k
e
pX (k) = k! ; k = 0; 1; ::::
Aceast¼ a aproximare Poisson a repartiţiei binomiale uşureaz¼a calculele şi se
foloseşte în practic¼a atunci când n > 10 şi p < 0; 1. Repartiţia Poisson îşi

aseşte aplicabilitate în acest caz în probleme în care probabilitatea apariţiei
unui eveniment este mic¼ a. De aceea, repartiţia Poisson se mai numeşte adesea
repartiţia evenimentelor rare.

47
5 Principalele repartiţii continue, cu densit¼
aţi
de repartiţie şi propriet¼
aţile lor
5.1 Repartiţia uniform¼
a
O variabil¼
a aleatoare continu¼ a X are repartiţie uniform¼a pe un interval de la
a la b (b > a) dac¼ a este egal probabil s¼ a ia orice valoare din acest interval.
Densitatea lui X este constant¼ a pe intervalul [a; b] şi are forma
c; dac¼a x 2 [a; b] ;
fX (x) =
0; altfel.
Deoarece
Z 1 Z a Z b Z 1
fX (x) dx = 0dx + cdx + 0dx = 0 + cxjba + 0 = c (b a) ;
1 1 a b
din condiţia
Z 1
fX (x) dx = 1
1
obţinem
c = b 1a :
Deci
1
fX (x) = b a; dac¼ a x 2 [a; b] ;
(5.1)
0; altfel.
Dup¼ a cum vedem din …gura de mai jos, este constant¼ a pe [a; b] şi în¼
alţimea
a …e b 1 a pentru ca aria de sub densitate s¼
trebuie s¼ a …e 1:

Funcţia de repartiţie a lui X este

48
8 Z x
>
>
0du = 0; dac¼a x < a;
>
>
>
Z x < Z
> Zax
1
1 u x x a
FX (x) = fX (u) du = 0du + b a du = 0 + b a ja = b a , dac¼
a x 2 [a; b] ;
1 >
> Z 1 Z a Z
> a
> b x
>
> 1
: 0du + b a du + 0du = 0 + 1 + 0 = 1, dac¼
a x > b:
1 a b
Deci
8
< 0; dac¼a x < a;
x a
FX (x) = , dac¼
a x 2 [a; b] ; (5.2)
: b a
1, dac¼
a x > b;
ceea ce este prezentat gra…c în …gura urm¼
atoare.

Media şi dispersia lui X sunt


Z 1 Z a Z b Z 1
2
x
mX = xfX (x) dx = 0dx + b a dx + 0dx = 0 + 2(bx b
a) ja +
1 1 a b
b2 a2 a+b
0= 2(b a) = 2 :
Z 1 Z a Z b
2 2 1 2
X = (x mX ) fX (x) dx = 0dx + b a (x mX ) dx +
Z 1
1 1 a
(x mX )3 b (b mX )3 (a mX )3 (b a)[(b mX )2 +(b mX )(a mX )+(a mX )2 ]
0dx = 0+ b 1 a 3 ja +0 = 3(b a) = 3(b a) =
hb i 2
b a 2 b a 2 2
1
3 2 + b 2a
2 = (b 12a) :
Repartiţia uniform¼ a e una dintre cele mai simple repartiţii şi e folosit¼ a de
obicei în situaţii unde nu este niciun motiv de a da probabilit¼ aţi inegale la valori
posibile luate de variabila aleatoare pe un interval dat. De exemplu, timpul de
sosire a unui zbor poate … considerat uniform repartizat pe un anumit interval
de timp, sau repartiţia distanţei de la locul înc¼ arc¼
aturilor vii pe un pod la
un suport terminal poate … reprezentat¼ a adecvat printr-o repartiţie uniform¼ a

49
pe întinderea podului. Adesea se ataşeaz¼a o repartiţie uniform¼
a unei anumite
variabile aleatoare din cauza unei lipse de informaţie, dincolo de cunoaşterea
intervalului de valori.

5.1.1 Repartiţia uniform¼


a bivariat¼
a
Fie variabila aleatoare X repartizat¼
a uniform pe un interval [a1 ; b1 ] şi variabila
aleatoare Y repartizat¼a uniform pe un interval [a2 ; b2 ]. Mai mult, presupunem

a sunt independente. Atunci densitatea comun¼ a a lui X şi Y este

1
fXY (x; y) = fX (x) fY (y) = (b1 a1 )(b2 a2 ) , pentru x 2 [a1 ; b1 ] şi y 2 [a2 ; b2 ] ;
0, altfel.
(5.3)
Ia forma unei suprafeţe plate m¼
arginit¼
a de [a1 ; b1 ] de-a lungul axei Ox şi
[a2 ; b2 ] de-a lungul axei Oy.

5.2 Repartiţia Gaussian¼


a sau normal¼
a
Cea mai important¼a repartiţie în teorie ca şi în aplicaţii este repartiţia Gaussian¼a
sau normal¼a. O variabil¼a aleatoare X este Gaussian¼a sau normal¼a dac¼ a are
densitatea de forma
" #
2
1 (x m)
fX (x) = p exp ; 1 < x < 1; (5.4)
2 2 2
unde m şi sunt doi parametri, cu > 0. Alegerea acestor simboluri
particulare ca parametri va deveni clar¼a imediat.
Funcţia de repartiţie corespunz¼
atoare este

Z " #
x 2
1 (u m)
FX (x) = p exp 2
du; 1 < x < 1: (5.5)
2 1 2

Ea nu poate … exprimat¼
a analitic, dar poate … evaluat¼
a numeric pentru orice
x.
Densitatea şi funcţia de repartiţie din relaţiile (5.4) şi (5.5) sunt reprezentate
gra…c în …gurile (a), respectiv (b) urm¼ atoare, pentru m = 0 şi = 1:

50
Gra…cul densit¼ aţii fX în acest caz particular este o curb¼
a în form¼
a de clopot,
simetric¼
a în jurul originii.
Calcul¼amZmedia şi dispersia lui X.Z
1 1 h i x m
=u
(x m)2
E (X) = xfX (x) dx = p12 x exp 2 2 dx =
1 1 2 3
Z 1 6 Z 1 Z 1 7
u2 6 u2 u2 7
p1 ( u + m) exp du = p1 6 u exp du + m exp du7 =
2 2 2 4 2 2 5
1 1 1
| {z }
im par¼
a
p
p1 0 + m 2 = m:
2 Z 1 Z 1 h i x m
=u
2 1 2 (x m)2
var (X) = [x E (X)] fX (x) dx = p
2
(x m) exp 2 2 dx =
Z 1 1 Z 1 1 Z 1 0
2 2
p1 2 2 u u2 2
u2
2
u exp 2 du = p2 u2 exp 2 du = p
2
u exp 2 du =
1 Z 1 1 1
2
u2 1 u2 2 p 2
p
2
u exp 2 j 1 exp 2 du = p
2
0 2 = :
1
Vedem astfel c¼ a cei doi parametri m şi din repartiţie sunt media şi re-
spectiv deviaţia standard a lui X. Aceast¼ a observaţie justi…c¼
a alegerea noastr¼
a
a acestor simboluri speciale pentru ei şi de asemenea pune în evidenţ¼ a o pro-
prietate important¼ a a repartiţiei normale - cunoaşterea mediei şi dispersiei ei

51
caracterizeaz¼a complet repartiţia normal¼ a. Deoarece ne vom referi frecvent la
repartiţia normal¼ am cu N m; 2 : De exemplu, X N (0; 9) înseamn¼
a, o not¼ a

a X are densitatea dat¼ a de relaţia (5.4) cu m = 0 şi = 3.
Se poate ar¼ a momentele centrate ale lui X N m; 2 sunt
ata c¼

0, dac¼
a n e impar,
= (5.6)
n 1 3 ::: (n 1) n , dac¼
a n e par.
Coe…cientul de exces 2 = 44 3 este 0 pentru o repartiţie normal¼
a. De
aceea ea este folosit¼
a ca repartiţie de referinţ¼
a pentru 2 .

5.2.1 Teorema limit¼


a central¼
a
Marea importanţ¼ a practic¼
a a repartiţiei normale provine din teorema limit¼ a
central¼a.
Teorema 5.1 (Teorema limit¼ a central¼ a) (Lindberg 1922). Fie fXn g
un şir de variabile aleatoare independente şi identic repartizate cu mediile m şi
dispersiile 2 . Fie
n
X
Y = Xj ;
j=1

şi …e variabila aleatoare normalizat¼


a Z de…nit¼
a ca
Y nm
Z= p :
n
Atunci funcţia de repartiţie a lui Z, FZ (z), converge la N (0; 1) când n ! 1
pentru orice z …xat.
Acest rezultat poate … extins în câteva direcţii, incluzând cazurile în care Y
este o sum¼ a de variabile aleatoare dependente şi neidentic repartizate.
Teorema limit¼ a central¼
a descrie o clas¼ a foarte general¼ a de fenomene aleatoare
pentru care repartiţiile pot … aproximate cu repartiţia normal¼ a. Când pro-
prietatea de a … aleator a unui fenomen …zic este cumularea a multor efecte
aleatoare aditive mici, el tinde la o repartiţie normal¼ a, indiferent de repartiţiile
efectelor individuale. De exemplu, consumul de combustibil la toate automo-
bilele unei anumite m¼ arci, presupus fabricate prin procese identice, difer¼ a de
la un automobil la altul. Aceast¼ a proprietate de a … aleator provine de la o
larg¼
a varietate de surse, incluzând, printre alte lucruri: inexactit¼ aţile inerente
în procesele de fabricare, neuniformit¼ aţile în materialele folosite, diferenţele în
greutate şi alte speci…caţii, diferenţe în calitatea combustibilului şi diferenţe
în comportamentul şoferilor. Dac¼ a se accept¼ a faptul c¼ a …ecare dintre aceste
diferenţe contribuie la proprietatea de a … aleator a consumului de combustibil,
teorema limit¼ a central¼a ne spune c¼ a el tinde la o repartiţie normal¼ a. Din acelaşi
motiv, variaţiile de temperatur¼ a dintr-o camer¼ a, erorile de citire asociate cu un
instrument, erorile de ţintire ale unei anumite arme, ş.a.m.d. pot … aproximate
rezonabil prin repartiţii normale.

52
5.2.2 Tabele de probabilit¼
aţi
Datorit¼ a importanţei sale, suntem adesea puşi în situaţia s¼a evalu¼
am probabil-
it¼
aţile asociate cu o variabil¼a aleatoare normal¼ a X N m; 2 , ca
Z b " #
2
1 (x m)
P (a < X b) = p exp dx: (5.7)
2 a 2 2
Integrala de mai sus nu poate … calculat¼ a analitic şi este în general calcu-
lat¼
a numeric. Pentru comoditate sunt date tabele care ne permit s¼ a calcul¼
am
probabilit¼
aţi ca cea din relaţia (5.7).
Tabelarea funcţiei de repartiţie pentru repartiţia normal¼a cu m = 0 şi = 1
este dat¼
a în tabelul A.3 din …gura urm¼ atoare.

O variabil¼ a aleatoare cu repartiţia N (0; 1) se numeşte variabil¼


a aleatoare
normal¼ a standardizat¼a şi o vom nota cu U . Tabelul al¼ aturat d¼
a FU (u) doar
pentru punctele din partea dreapt¼ a a repartiţiei (adic¼
a pentru u 0). Valorile
corespunz¼ atoare pentru u < 0 sunt obţinute din proprietatea de simetrie a
repartiţiei normale standardizate, din relaţia

FU ( u) = 1 FU (u) : (5.8)

53
Mai întâi, tabelul împreun¼
a cu relaţia (5.8) pot … folosite pentru a determina
P (a < U b) pentru orice a şi b. De exemplu,
(5.8) tab el
P ( 1; 5 < U 2; 5) = FU (2; 5) FU ( 1; 5) = FU (2; 5) [1 FU (1; 5)] =
0; 9938 1 + 0; 9332 = 0; 927:
Mai important, tabelul şi relaţia (5.8) sunt de asemenea su…ciente pentru a
determina probabilit¼aţile asociate cu variabilele aleatoare normale cu medii si
dispersii arbitrare.
Teorema 5.2. Fie X N m; 2 . Atunci X m N (0; 1), adic¼ a
X m
U= : (5.9)
2
Teorema 5.2 implic¼
a faptul c¼
a, dac¼
aX N m; , atunci

a m b m
P (a < X b) = P (a < U + m b) = P <U : (5.10)

Valoarea din membrul drept poate … g¼asit¼


a acum din tabel cu ajutorul re-
laţiei (5.8), dac¼
a este necesar.
Exemplul 5.1. S¼ am P (m k < X m + k ), unde X N m; 2 .
a calcul¼

(5.10) (5.8)
P (m k <X m+k ) = P ( k <U k) = FU (k) FU ( k) = 2FU (k) 1:
(5.11)
Observ¼ am c¼a rezultatul din exemplul 5.1 este independent de m şi şi
este funcţie doar de k. Astfel, probabilitatea ca X s¼a ia valori între k deviaţii
standard în jurul mediei sale depinde numai de k şi este dat¼a de ecuaţia (5.11).
Se vede din tabel c¼ a aproximativ 68; 3%; 95; 5% şi 99; 7% din aria de sub o
densitate normal¼ a se a‡a¼ în zonele m ; m 2 , respectiv m 3 , dup¼ a cum
se vede din …gurile (a)-(c) urm¼ atoare.

54
De exemplu, şansele sunt de aproximativ 99; 7% ca o mostr¼
a selectat¼
a aleator
dintr-o repartiţie normal¼
a s¼
a …e în regiunea m 3 (…gura (c)).

5.2.3 Repartiţia normal¼


a multivariat¼
a
Dou¼
a variabile aleatoare X şi Y se numesc comun normale dac¼
a densitatea
comun¼
a a lor are forma

( " #)
2 2
1 1 x mX (x mX ) (y mY ) y mY
fXY (x; y) = p exp 2)
2 + ;
2 X Y 1 2 2 (1 X X Y Y
(5.12)
unde ( 1; 1) < (x; y) < (1; 1). Relaţia (5.12) descrie repartiţia nor-
mal¼a bivariat¼a. Sunt cinci parametri asociaţi cu ea: mX ; mY ; X (> 0) ; Y
(> 0) ; şi (j j 1). O reprezentare gra…c¼
a tipic¼a a acestei densit¼
aţi, pentru
mX = mY = 0 şi X = Y este în …gura urm¼ atoare.

55
Densitatea marginal¼
a a variabilei aleatoare X este

Z " #
1 2
1 (x mX )
fX (x) = fXY (x; y) dy = p exp 2 ; 1 < x < 1:
1 X 2 2 X

Astfel, X N mX ; 2X . Similar, Y N mY ; 2Y şi = XXYY este


coe…cientul de corelaţie al lui X şi Y . Vedem astfel c¼ a cei cinci parametri
conţinuţi în densitatea bivariat¼
a fXY (x; y) reprezint¼
a cinci momente importante
asociate cu variabilele aleatoare. De asemenea observ¼ am c¼a repartiţia normal¼
a
bivariat¼a este complet caracterizat¼ a de momentele comune de ordinul 1 şi 2 ale
lui X şi Y .
Teorema 5.3. Corelaţie zero implic¼ a independenţ¼a când variabilele aleatoare
sunt comun normale.
Demonstraţie. Punând = 0 în relaţia (5.12), obţinem

( " #) ( " #)
2 2
1 (x mX ) 1 (x mY )
fXY (x; y) = p exp 2
p exp 2 = fX (x) fY (y) ;
X 2 2 X Y 2 2 Y

adic¼
a X şi Y sunt independente.

56
Aceast¼a proprietate nu este valabil¼ a în general.
Avem repartiţie normal¼a multivariat¼a când cazul a dou¼ a variabile aleatoare
e extins la cel implicând n variabile aleatoare.
Fie n variabile aleatoare, X1 ; X2 ; :::; Xn . Ele se numesc comun normale dac¼ a
densitatea lor comun¼ a e de forma

n 1 1 T 1
fX1 X2 :::Xn (x1 ; x2 ; :::; xn ) = fX (x) = (2 ) 2
j j 2
exp (x m) (x m) ; 1 < x < 1;
2

unde mT = (m1 ; m2 ; :::; mn ) = (E (X1 ) ; E (X2 ) ; :::; E (Xn )), = ij i;j=1;n


este matricea de covarianţ¼a a lui X, cu

ij = E ((Xi mi ) (Xj mj )) ;
iar j j este determinantul lui . Din nou vedem c¼ a o repartiţie normal¼ a
comun¼ a este complet speci…cat¼a de momentele comune de ordinul 1 şi 2, aceste
momente determinând de asemenea momentele comune de ordine mai mari ca 2:
Se poate ar¼ata c¼
a, în cazul când variabilele aleatoare X1 ; X2 ; :::; Xn au mediile
0, toate momentele de ordin impar ale lor sunt 0, şi, pentru n par

X
E (X1 X2 :::Xn ) = E (Xm1 Xm2 ) E (Xm2 Xm3 ) :::E Xmn 1 Xmn :
m1 ;:::;mn

n
Suma de mai sus e luat¼ a dup¼
a toate combinaţiile posibile de 2 perechi de n
variabile aleatoare şi are 1 3 5 ::: (n 3) (n 1) termeni.

5.2.4 Sume de variabile aleatoare normale


Teorema 5.4. Fie X1 ; X2 ; :::; Xn n variabile aleatoare repartizate comun nor-
mal (nu necesar independente). Atunci variabila aleatoare

Y = c1 X1 + c2 X2 + ::: + cn Xn
este repartizat¼
a normal, unde c1 ; c2 ; :::; cn sunt constante.
Teorema 5.5. Fie X1 ; X2 ; :::; Xn n variabile aleatoare repartizate normal
(nu necesar independente). Atunci variabilele aleatoare Y1 ; Y2 ; :::; Ym , unde
n
X
Yj = cjk Xk ; j = 1; 2; :::; m;
k=1

sunt repartizate comun normal.

57
5.3 Repartiţia lognormal¼
a
Am v¼ azut c¼ a repartiţii normale rezult¼a din sume de multe acţiuni aleatoare.
Consider¼ am acum un alt fenomen obişnuit care este rezultanta multor efecte
aleatoare multiplicative. Un exemplu de fenomen multiplicativ este studiul de
oboseal¼ a a materialelor unde avaria intern¼ a a materialului la o anumit¼ a etap¼a de
înc¼
arcare este o proporţie aleatoare din avaria de la etapa precedent¼ a. În biolo-
gie, repartiţia m¼arimii unui organism este alt exemplu pentru care creşterea este
subiectul multor impulsuri, …ecare dintre acestea …ind proporţional cu m¼ arimea
momentan¼ a. Alte exemple includ repartiţia m¼ arimii particulelor sub forţe de
impact sau impulsive, repartiţia vieţii componentelor mecanice, repartiţia ven-
iturilor personale datorit¼ a ajust¼
arilor anuale, şi alte fenomene similare.
S¼a consider¼am

Y = X1 X2 :::Xn : (5.13)
Suntem interesaţi de repartiţia lui Y când n devine mare, iar variabilele
aleatoare Xj ; j = 1; 2; :::; n, pot lua numai valori pozitive.
Logaritmând ambii membri, relaţia (5.13) devine

ln Y = ln X1 + ln X2 + ::: + ln Xn :
Din teorema limit¼
a central¼a rezult¼
a c¼a ln Y tinde la o repartiţie normal¼
a
când n ! 1. Repartiţia lui Y este astfel determinat¼a din

Y = eX ; (5.14)
unde X este o variabil¼ a aleatoare normal¼
a.
De…niţia 5.1. Fie X N mX ; 2X . Variabila aleatoare Y = eX se spune

a are repartiţie lognormal¼a.
Densitatea lui Y este

( h i
1p 1 2
exp 2 2 (ln y mX ) , pentru y > 0;
fY (y) = y X 2 X (5.15)
0, altfel.

Relaţia (5.15) arat¼a c¼


a Y are o repartiţie unilateral¼
a (adic¼a ia valori numai
în zona pozitiv¼ a a lui y). Aceast¼ a proprietate o face atractiv¼a pentru cantit¼aţi
…zice care sunt restricţionate s¼
a aib¼
a doar valori pozitive. În plus, fY (y) ia multe
forme diferite pentru valori diferite ale lui mX şi X ( X > 0). Dup¼ a cum se
vede din …gura urm¼ atoare, care d¼ a gra…cele lui fY pentru mX = 0 şi 3 valori
ale lui 2X , densitatea lui Y este asimetric¼ a spre dreapta, aceast¼ a caracteristic¼
a
devenind mai pronunţat¼ a când X creşte.

58
Parametrii mX şi X care apar în densitatea lui Y sunt media şi deviaţia
standard a lui X, sau ln Y , dar nu ale lui Y . Pentru a obţine o pereche mai
natural¼
a de parametri pentru fY (y), observ¼ am c¼
a, dac¼
a medianele lui X şi Y
sunt notate cu X , respectiv Y , de…niţia medianei unei variabile aleatoare d¼
a
1
2 = P (Y Y ) = P (X ln Y ) = P (X X ) ;
de unde

ln Y = X:

Deoarece, datorit¼
a simetriei repartiţiei normale,
X = m X ;
putem scrie

mX = ln Y :
Scriind X = ln Y , densitatea lui Y poate … scris¼
a

59
( h i
1p
exp 2
1
2 ln2 y
, pentru y > 0;
fY (y) = y ln Y 2 ln Y Y

0, altfel.
În termeni de Y şi ln Y , media şi dispersia lui Y sunt
2
mY = Y exp ln Y
2 ;
2 2 2
Y = mY exp ln Y 1 :

5.3.1 Tabele de probabilit¼


aţi
Datorit¼ a leg¼aturii dintre repartiţia normal¼ a şi repartiţia lognormal¼ a prin re-
laţia (5.14), calculele de probabilit¼
aţi implicând o variabil¼ a aleatoare repartizat¼a
lognormal pot … f¼ acute cu ajutorul tabelului de probabilit¼ aţi pentru variabile
aleatoare normale.
Consider¼ am funcţia de repartiţie a lui Y . Avem

FY (y) = P (Y y) = P (X ln y) = FX (ln y) ; y > 0:


2
Deoarece media lui X este ln Y şi dispersia lui X este ln Y , avem

ln y ln Y 1 y
FY (y) = FU = FU ln ; y > 0: (5.16)
ln Y ln Y Y

Deoarece FU este tabelat¼ a, relaţia (5.16) poate … folosit¼


a pentru calcule de
probabilit¼
aţi asociate cu Y , cu ajutorul tabelului probabilit¼ aţii normale.

5.4 Repartiţia gamma şi repartiţii în leg¼


atur¼
a cu aceasta
Repartiţia gamma este unilateral¼
a şi densitatea asociat¼
a cu ea este
1 x
fX (x) = ( )x e , pentru x > 0;
(5.17)
0, altfel,
unde ( ) este funcţia gamma:
Z 1
1 u
( )= u e du;
0
care este tabelat¼
a, şi

(n) = (n 1)!; 8n 2 N :
Parametrii distribuţiei gamma sunt şi ; ambii sunt pozitivi. Deoarece
repartiţia gamma este unilateral¼a, cantit¼
aţile …zice care pot lua doar valori poz-
itive sunt frecvent modelate de ea, servind ca model util datorit¼ a versatilit¼
aţii
ei în sensul c¼
a o varietate larg¼
a de forme ale densit¼ aţii gamma poate … obţinut¼ a
variind valorile lui şi , dup¼ a cum arat¼a …gurile (a) şi (b) urm¼ atoare.

60
Observ¼ am din aceste …guri c¼ a determin¼ a forma repartiţiei în timp ce
este un parametru de scar¼ a pentru repartiţie. În general, densitatea gamma
este unimodal¼ a, cu vârful în x = 0 pentru 1 şi în x = 1 pentru > 1:
Se poate ar¼ata c¼
a repartiţia gamma este un model pentru timpul cerut pen-
tru un total de exact sosiri Poisson. Datorit¼ a largii aplicabilit¼
aţi a sosirilor
Poisson, repartiţia gamma are de asemenea numeroase aplicaţii.
Funcţia de repartiţie a variabilei aleatoare X având repartiţia gamma este

8 Z x Z x
< 1 u ( ; x)
fX (u) du = ( ) u e du = ( ) , pentru x > 0;
FX (x) = 0 0
:
0, altfel.
(5.18)
( ; u) este funcţia gamma incomplet¼ a,
Z u
1 x
( ; u) = x e dx;
0
care este de asemenea tabelat¼ a.
Media şi dispersia variabilei aleatoare gamma repartizate X sunt
2
mX = ; X = 2: (5.19)

61
5.4.1 Repartiţia exponenţial¼
a
Când = 1, densitatea gamma dat¼
a de relaţia (5.17) se reduce la forma expo-
nenţial¼
a

e x , pentru x > 0;
fX (x) = (5.20)
0, altfel,
unde > 0 este parametrul repartiţiei. Funcţia de repartiţie, media şi
dispersia ei se obţin din relaţiile (5.18) şi (5.19) punând = 1:

1 e x , pentru x 0;
FX (x) = (5.21)
0, altfel,
1 2 1
mX = ; X = 2: (5.22)

Timpul între sosiri Fie variabila aleatoare X (0; t), num¼ arul de sosiri în
intervalul de timp [0; t) şi presupunem c¼ a este repartizat¼
a Poisson. Fie T vari-
abila aleatoare care d¼ a intervalul de timp dintre 2 sosiri succesive. Funcţia ei
de repartiţie este, din de…niţie

1 P (T > t) , pentru t 0;
FT (t) = P (T t) =
0, altfel.
Evenimentul T > t e echivalent cu evenimentul c¼ a nu e nicio sosire în inter-
valul de timp [0; t), sau X (0; t) = 0. Deoarece, din relaţia (4.10), P (X (0; t) = 0) =
e t , avem

1 e t , pentru t 0;
FT (t) =
0, altfel.
Comparând aceast¼ a expresie cu relaţia (5.21), putem stabili c¼ a timpul între 2
sosiri Poisson succesive are o repartiţie exponenţial¼ a; parametrul din repartiţia
lui T este rata medie a sosirilor Poisson.
Deoarece timpurile între sosiri Poisson sunt independente, timpul cerut pen-
tru un total de n sosiri Poisson este o sum¼ a de n variabile aleatoare independente
şi repartizate exponenţial. Fie Tj ; j = 1; 2; :::; n, timpul între sosirile j 1 şi j.
Timpul cerut pentru un total de n sosiri, notat cu Xn este

Xn = T1 + T2 + ::: + Tn ;
unde Tj ; j = 1; 2; :::; n, sunt independente şi repartizate exponenţial cu ace-
laşi parametru . Se poate ar¼ ata c¼
a Xn este gamma repartizat¼ a cu = n şi
= . Astfel, repartiţia gamma este potrivit¼ a pentru a descrie timpul cerut
pentru un total de sosiri Poisson.

62
Fiabilitatea şi legea de defectare exponenţial¼ a În studiile de …abilitate,
timpul pân¼ a la defectarea unui component …zic sau un sistem este repartizat
exponenţial, dac¼ a unitatea se defecteaz¼a imediat ce un singur eveniment, ca de-
fectarea unui component, apare, presupunând c¼ a astfel de fenomene se întâmpl¼ a
independent.
Fie variabila aleatoare T , timpul pân¼ a la defectarea unui component sau
sistem. Funcţia care d¼ a probabilitatea de defecţiune în timpul unei creşteri mici
de timp, presupunând c¼ a nicio defecţiune nu a ap¼ arut înainte de acel timp e
notat¼a cu h (t) şi se numeşte funcţia hazard sau rata defect¼arii şi este de…nit¼
a
de

h (t) dt = P (t < T t + dtjT t) ;


ceea ce d¼
a

fT (t)
h (t) = : (5.23)
1 FT (t)
În studiile de …abilitate, o funcţie hazard potrivit¼
a pentru multe fenomene
ia aşa numita "form¼a de cad¼ a", ar¼
atat¼a în …gura urm¼atoare.

Porţiunea iniţial¼
a a curbei reprezint¼a "mortalitatea infantil¼ a", atribuibil¼
a
defectelor componente şi imperfecţiunilor de fabricare. Porţiunea relativ con-
stant¼
a a curbei h (t) reprezint¼ a perioada "în uz", în care defecţiunea este în-
tâmpl¼atoare. Defecţiunea din uzur¼ a de lâng¼a sfârşitul vieţii componentului este
ar¼
atat¼
a ca porţiunea cresc¼ atoare a curbei h (t). Fiabilitatea sistemului poate …

63
optimizat¼ a prin testarea iniţial¼
a a defectelor, înainte punerea în funcţiune, pân¼ a
la timpul t1 , pentru a evita defectarea prematur¼ a, şi prin înlocuirea parţial¼
a la
timpul t2 pentru a evita uzura.
Ar¼ at¼
am c¼a legea de defectare exponenţial¼ a este potrivit¼ a în timpul perioadei
"în uz" a vieţii normale a unui sistem. Înlocuind
fT (t) = e t
şi
FT (t) = 1 e t
în relaţia (5.23) avem

h (t) = :
Observ¼am c¼ a parametrul din repartiţia exponenţial¼ a joac¼
a rolul unei rate
de defectare constante.
Am v¼ azut c¼ a repartiţia gamma este potrivit¼ a pentru a descrie timpul pentru
un total de sosiri Poisson. În contextul legilor de defectare, repartiţia gamma
poate … gândit¼ a ca o generalizare a legii de defectare exponenţial¼ a pentru sisteme
ce se defecteaz¼ a imediat de evenimente eşueaz¼ a, presupunând c¼ a evenimentele
au loc în concordanţ¼ a cu legea Poisson. Astfel, repartiţia gamma este potrivit¼ a
ca model al timpului pân¼ a la defectare pentru sisteme care au o unitate care
funcţioneaz¼a şi 1 unit¼aţi în standby; aceste unit¼ aţi intr¼
a în funcţionare pe
rând, pe m¼ asur¼ a ce se defecteaz¼ a celelalte şi …ecare are o repartiţie exponenţial¼
a
a timpului pân¼ a la defectare.

5.4.2 Repartiţia chi-p¼


atrat
atrat ( 2 ),
Alt caz special important al repartiţiei gamma este repartiţia chi-p¼
1 n
a punând = 2 şi = 2 în relaţia (5.17), unde n 2 N . Repartiţia 2
obţinut¼
conţine astfel un parametru n şi are densitatea de forma
( 1 n x
n
2 (n)
x 2 1 e 2 , pentru x > 0;
fX (x) = 2 2 (5.24)
0, altfel.
Parametrul n este num¼ arul de grade de libertate. Utilitatea acestei repartiţii
provine din faptul c¼
a o sum¼ a de p¼
atrate de n variabile aleatoare normale stan-
dardizate are o repartiţie 2 cu n grade de libertate; adic¼ a, dac¼
a U1 ; U2 ; :::; Un
sunt independente şi repartizate N (0; 1), atunci suma

X = U12 + U22 + ::: + Un2 (5.25)


2
are o repartiţie cu n grade de libertate.
Datorit¼a acestei relaţii, repartiţia 2 este una dintre principalele unelte în
inferenţa statistic¼
a şi testarea ipotezelor.
Densitatea din relaţia (5.24) este reprezentat¼ a în …gura urm¼atoare pentru
câteva valori ale lui n:

64
Se observ¼ a c¼
a, când n creşte, forma lui fX (x) devine mai simetric¼ a. Din
relaţia (5.25), deoarece X poate … exprimat¼ a ca o sum¼ a de variabile aleatoare
identic repartizate, ne astept¼am ca repartiţia 2 s¼ a tind¼
a la o repartiţie normal¼
a
când n ! 1 pe baza teoremei limit¼ a central¼
a.
Media şi dispersia unei variabile aleatoare X având o repartiţie 2 cu n grade
de libertate se obţin din relaţia (5.19):
2
mX = n; X = 2n:

5.5 Repartiţia beta şi repartiţii în leg¼


atur¼
a cu aceasta
Repartiţia beta este caracterizat¼
a de densitatea

(
( + ) 1 1
fX (x) = ( ) ( )x (1 x) , pentru 0 < x < 1;
(5.26)
0, altfel,

unde parametrii şi sunt pozitivi. Numele repartiţiei vine de la funcţia


beta de…nit¼
a prin

( ) ( )
B( ; ) = :
( + )

65
Ambii parametri şi dau forma repartiţiei; diferite combinaţii ale valorilor
lor permit densit¼aţii s¼
a ia o larg¼
a varietate de forme. Când ; > 1, repartiţia
este unimodal¼ a, cu vârful în x = + 1 2 : Devine în form¼ a de U când ; < 1;
este în form¼a de J când 1 şi < 1; ia forma unui J întors când < 1
şi 1. În sfârşit, ca un caz special, repartiţia uniform¼
a pe intervalul (0; 1)
rezult¼
a când = = 1. Unele din aceste forme posibile sunt în …gurile (a),
pentru = 2, şi (b) urm¼ atoare.

Media şi dispersia unei variabile aleatoare beta repartizate X sunt

mX = + ;
2 (5.27)
X = ( + )2 ( + +1)
:
Datorit¼ a versatilit¼
aţii ei ca o repartiţie pe un interval …nit, repartiţia beta
este folosit¼
a pentru a reprezenta un mare num¼ ar de cantit¼ aţi …zice pentru care
valorile sunt restricţionate la un interval identi…cabil. Câteva din ariile de apli-
care sunt limitele de toleranţ¼ a, controlul calit¼
aţii şi …abilitatea.
Presupunem c¼ a un fenomen aleator Y poate … observat independent de n
ori şi dup¼a ce aceste n observaţii independente sunt ordonate cresc¼ ator, …e
y1 y2 ::: yn valorile lor. Dac¼ a variabila aleatoare X este folosit¼ a pentru a
nota proporţia din Y care ia valori între yr şi yn s+1 , se poate ar¼ ata c¼
a X are
o repartiţie beta cu = n r s + 1 şi = r + s, adic¼ a

66
(
(n+1) n r s r+s 1
fX (x) = (n r s+1) (r+s) x (1 x) , pentru 0 < x < 1;
0, altfel.

5.5.1 Tabele de probabilit¼


aţi
Funcţia de repartiţie asociat¼
a repartiţiei beta este
8
>
> 0, pentruZ x 0;
< x
( + ) 1 1
FX (x) = ( ) ( ) u (1 u) du, pentru 0 < x < 1; (5.28)
>
> 0
:
1, pentru x 1:
Are de asemenea forma unei funcţii beta incomplete pentru care valorile
pentru valori date ale lui şi pot … g¼ asite din tabele matematice. Funcţia
beta incomplet¼a e notat¼a de obicei cu Ix ( ; ). Notând FX (x) cu parametrii
şi cu F (x; ; ), dac¼ a , atunci

F (x; ; ) = Ix ( ; ) :
Dac¼
a < , atunci

F (x; ; ) = 1 I(1 x) ( ; ):
O alt¼
a metod¼ a de evaluare a lui FX (x) din relaţia (5.28) este de a observa
similaritatea în form¼a dintre fX (x) şi pY (k) a unei variabile aleatoare binomiale
Y , pentru cazul când ; 2 N . Din relaţia (4.1),
n!
pY (k) = pk q n k ; k = 0; 1; 2; :::; n: (5.29)
k! (n k)!
Din relaţia (5.26), pentru cazul când ; 2 N , obţinem

( + 1)! 1 1
fX (x) = x (1 x) ; ; = 1; 2; :::; 0 < x < 1;
( 1)! ( 1)!
şi stabilim relaţia

fX (x) = ( + 1) pY (k) ; ; = 1; 2; :::; 0 < x < 1;


unde pY (k) este evaluat¼ a în k = 1, cu n = + 2 şi p = x. De
exemplu, valoarea fX (0; 5) cu = 2 şi = 1 este egal¼ a cu 2pY (1) cu n = 1 şi
p = 0; 5; aici pY (1) = 0; 5 din relaţia (5.29), deci fX (0; 5) = 1:
Similar avem

FX (x) = 1 FY (k) ; ; = 1; 2; :::; 0 < x < 1;


cu k = 1, n = + 2 şi p = x. Funcţia de repartiţie FY a unei
variabile aleatoare binomiale Y este de asemenea tabelat¼ a şi poate … folosit¼
a
pentru a avantaja aici evaluarea lui FX (x) asociat¼
a cu repartiţia beta.

67
5.5.2 Repartiţia beta generalizat¼
a
Repartiţia beta poate … generalizat¼
a de la una restricţionat¼
a la intervalul (0; 1)
la una acoperind un interval arbitrar (a; b). Fie Y o variabil¼ a aleatoare beta
generalizat¼a. Avem

Y = (b a) X + a; (5.30)
unde X este beta repartizat¼ a în conformitate cu relaţia (5.26). Deoarece
relaţia (5.30) este o transformare monoton¼a de la X la Y , avem

(
( + ) 1 1
(b a) + 1
( ) ( )
(y a) (b y) , pentru a < y < b;
fY (y) =
0, altfel.
(5.31)

5.6 Repartiţii de valori extreme


Cineva preocupat de siguranţa unei structuri este adesea interesat de înc¼ arc¼
a-
tura maxim¼a şi stresul maxim în membrii structurii. În studiile de …abilitate,
repartiţia vieţii unui sistem având n componente în serie (când sistemul se de-
fecteaz¼a dac¼a o component¼ a se defecteaz¼
a) este o funcţie de minimul timpilor
pân¼a la defectarea componentelor, în timp ce pentru un sistem cu aranjament
paralel (unde sistemul se defecteaz¼ a când toate componentele se defecteaz¼ a) e
determinat¼ a de repartiţia maximului timpilor pân¼ a la defectarea componentelor.
Aceste exemple puncteaz¼ a preocuparea cu repartiţiile maximului sau minimului
valorilor unui num¼ ar de variabile aleatoare.
Fie Xj , j = 1; 2; :::; n, variabile aleatoare independente şi identic repartizate
cu funcţia de repartiţie FX (x) şi densitatea fX (x) sau masa pX (x) şi

Yn = max (X1 ; X2 ; :::; Xn ) ;


Zn = min (X1 ; X2 ; :::; Xn ) :
Funcţia de repartiţie a lui Yn este
indep.
FYn (y) = P (Yn y) = P (X1 y \ X2 y \ ::: \ Xn y) = P (X1 y) P (X2 y) :::P (Xn y) =
n
FX1 (y) FX2 (y) :::FXn (y) = [FX (y)] :
Deci
n
FYn (y) = [FX (y)]
Dac¼
a Xj sunt continue, densitatea lui Yn este

dFYn (y) n 1
fYn (y) = = n [FX (y)] fX (y) :
dy
Funcţia de repartiţie a lui Zn este
indep.
FZn (z) = P (Zn z) = P (X1 z [ X2 z [ ::: [ Xn z) = 1 P (X1 > z \ X2 > z \ ::: \ Xn > z) =
1 P (X1 > z) P (X2 > z) :::P (Xn > z) = 1 [1 FX1 (z)] [1 FX2 (z)] ::: [1 FXn (z)] =
n
1 [1 FX (z)] :

68
Deci
n
FZn (z) = 1 [1 FX (z)] :
Dac¼
a Xj sunt continue, densitatea lui Zn este
n 1
fZn (z) = n [1 FX (z)] fX (z) :

5.6.1 Repartiţii asimptotice de tip I ale valorilor extreme


Repartiţia asimptotic¼ a de tip I a valorilor maxime este repartiţia limitei lui
Yn (când n ! 1) dintr-o repartiţie iniţial¼ a FX (x) a c¼arei coad¼
a dreapt¼
a este
nem¼ arginit¼
a şi este de tip exponenţial. Pentru acest caz, putem exprima FX (x)
în forma

FX (x) = 1 exp [ g (x)] ; (5.32)


unde g (x) este o funcţie strict cresc¼
atoare de x. În aceast¼
a categorie intr¼
a,
printre altele, repartiţiile normal¼
a, lognormal¼
a şi gamma.
Fie

lim Yn = Y:
n!1

Teorema 5.6. Fie variabilele aleatoare X1 ; X2 ; :::; Xn independente şi iden-


tic repartizate cu aceeaşi funcţie de repartiţie FX (x). Dac¼
a FX (x) e de forma
dat¼a de relaţia (5.32), avem

FY (y) = exp f exp [ (y u)]g ; 1 < y < 1;


unde > 0 şi u sunt 2 parametri ai repartiţiei.
u este modulul repartiţiei, adic¼
a valoarea lui y în care fY (y) este maxim¼
a.
Media lui Y este

mY = u + ;

unde ' 0; 577 este constanta lui Euler. Dispersia lui Y este
2
2
Y = :
6 2
u este parametru de locaţie şi este parametru de scal¼ a al repartiţiei. Co-
e…cientul de asimetrie este în acest caz 1 ' 1; 1396 şi e independent de şi
u. Acest rezultat arat¼a c¼
a repartiţia valorii maxime de tip I are o form¼a …x¼ a cu
o coad¼
a dominant¼ a spre dreapta. O form¼ a tipic¼
a pentru fY (y) este aratat¼ a în
…gura urm¼ atoare.

69
Repartiţia asimptotic¼a de tip I pentru valori minime este repartiţia limitei
lui Zn când n ! 1 dintr-o repartiţie iniţial¼
a FX (x) a c¼arei coad¼
a stâng¼ a este
nem¼ arginit¼
a şi este de tip exponenţial când descreşte la 0 spre stânga. Un
exemplu de FX (x) care aparţine acestei clase este repartiţia normal¼
a.
Dac¼a punem

lim Zn = Z;
n!1

funcţia de repartiţie a lui Z are forma

FZ (z) = 1 exp f exp [ (z u)]g ; 1 < z < 1;


unde > 0 şi u sunt din nou cei 2 parametri ai repartiţiei.
Repartiţiile asimptotice de tip I pentru valori maxime şi minime sunt imagini
în oglind¼
a una celeilalte. Modulul lui Z este u şi media, dispersia şi coe…cientul
lui de asimetrie sunt

mY = u ;
2
2
Y = 6 2 ;
1 ' 1; 1396:
Datorit¼
a largii aplicabilit¼
aţi, repartiţia valorii maxime de tip I este uneori
numit¼
a simplu repartiţia valorii extreme.

5.6.2 Repartiţii asimptotice de tip II ale valorilor extreme


Repartiţia asimptotic¼
a de tip II a valorilor maxime apare ca repartiţia limitei
lui Yn când n ! 1 dintr-o repartiţie iniţial¼a de tip Pareto, adic¼ a, FX (x) e
limitat¼
a la stânga în 0 şi coada ei dreapt¼
a este nem¼arginit¼
a şi se apropie de 1
conform
k
FX (x) = 1 ax ; a; k; x > 0: (5.33)
Pentru aceast¼
a clas¼
a

70
y k
FY (y) = exp ; v; k; y > 0:
v
Cu FX (x) dat în relaţia (5.33), …ecare Xj are momente doar pân¼
a la ordinul
r, unde r este cel mai mare întreg mai mic decât k. Când k > 1, media lui Y
este

1
mY = v 1 ;
k
şi, când k > 2, dispersia are forma

2 2 1
Y = v2 1 2
1 :
k k
Fie YI şi YII variabile aleatoare având repartiţii asimptotice de tip I, respec-
tiv II ale valorilor maxime. Atunci ele sunt legate prin

FYII (y) = FYI (ln y) ; y > 0;


iar parametrii şi u din FYI (y) sunt legaţi de parametrii k şi v din FYII (y)
prin

u = ln v şi = k:
Dac¼
a YI şi YII sunt continue, densit¼
aţile lor sunt în relaţia
1
fYII (y) = fY (ln y) ; y > 0:
y I
Repartiţia asimptotic¼ a de tip II a valorilor minime apare în condiţii analoage.
Cu FX (x) limitat¼ a la dreapta în 0 şi apropiindu-se de 0 la stânga într-o manier¼a
analoag¼
a relaţiei (5.33), avem

z k
FZ (z) = 1 exp ; v; k > 0; z < 0:
v
Nu e aşa util¼
a ca omoloagele de tip I şi III, deoarece în practic¼
a repartiţiile
iniţiale cerute nu sunt frecvent întâlnite.

5.6.3 Repartiţii asimptotice de tip III ale valorilor extreme


Deoarece repartiţia asimptotic¼
a de tip III a valorii maxime este de interes practic
limitat, discut¼
am doar repartiţia valorilor minime.
Repartiţia asimptotic¼a de tip III a valorii minime este repartiţia limitei lui
Zn când n ! 1 pentru o repartiţie iniţial¼ a în care coada stâng¼a creşte de la 0
lâng¼
a x = " în maniera
k
FX (x) = c (x ") ; c; k > 0; x ":

71
Aceast¼
a clas¼a de repartiţii este m¼arginit¼a la stânga în x = ". Repartiţia
gamma este o astfel de repartiţie cu " = 0.
Se poate ar¼
ata c¼
a funcţia de repartiţie asimptotic¼
a de tip III a valorii minime
este
" #
k
z "
FZ (z) = 1 exp ; k > 0; w; z > "; (5.34)
w "
şi, dac¼
a Z e continu¼
a,

" #
k 1 k
k z " z "
fZ (z) = exp ; k > 0; w; z > ":
w " w " w "
(5.35)
Media şi dispersia lui Z sunt
1
mZ = " + (w ") 1 + k ;
2
2
Z = (w ") 1 + k2 2
1+ 1
k :
Am v¼ azut c¼a repartiţia exponenţial¼a e folosit¼
a ca o lege a defect¼
arii în studii
de …abilitate, corespunzând unei funcţii hazard constante. Repartiţia dat¼ a de
relaţiile (5.34) şi (5.35) este frecvent folosit¼
a ca un model generalizat al timpului
pân¼a la defectare pentru cazurile în care funcţia hazard variaz¼ a cu timpul. Se
poate ar¼ ata c¼
a funcţia hazard
k 1
k t
h (t) = ; t > 0;
w w
poate avea o larg¼a varietate de forme, şi densitatea asociat¼a cu ea pentru T ,
timpul pân¼
a la defectare, este dat¼a de
" #
k 1 k
k t t
fT (t) = exp ; w; k; t > 0: (5.36)
w w w
Aceasta este repartiţia Weibull, numit¼ a dup¼ a Weibull care a descoperit-o în
1939. Relaţia (5.36) este un caz special al relaţiei (5.35), cu " = 0:
Fie ZI şi ZIII variabile aleatoare având repartiţii asimptotice de tipul I,
respectiv III, ale valorilor minime. Atunci

FZIII (z) = FZI [ln (z ")] ; z > ";


cu u = ln (w ") şi = k. Dac¼
a sunt continue,
1
fZIII (z) = fZ [ln (z ")] ; z > ":
z " I
Repartiţiile asimptotice ale valorilor maxime şi minime din aceeaşi repartiţie
iniţial¼
a pot s¼a nu …e de acelaşi tip. De exemplu, pentru o repartiţie iniţial¼ a
gamma, repartiţia ei asimptotic¼ a a valorii maxime este de tipul I, în timp ce

72
a valorii minime este de tipul III. Un sistem având n componente în serie cu
repartiţii de viaţ¼
a gamma independente pentru componentele lui are o repartiţie
a timpului pân¼ a la defectare aparţinând repartiţiei asimptotice de tip III a valorii
minime, când n devine mare. Modelul corespunz¼ ator pentru un sistem având n
componente în paralel este repartiţia asimptotic¼ a de tip I a valorii maxime.

73
6 Funcţii (transform¼
ari) de variabile aleatoare
În ştiinţ¼
a şi inginerie, multe fenomene sunt bazate pe relaţii funcţionale în care
una sau mai multe variabile dependente sunt exprimate în termeni de una sau
mai multe variabile independente. De exemplu, distanţa parcurs¼ a într-un inter-
val de timp este o funcţie de vitez¼ a, ş.a.m.d.

6.1 Funcţii de o variabil¼


a aleatoare
Fie

Y = g (X) ; (6.1)
unde g este o funcţie continu¼ a. Dat¼a …ind repartiţia lui X în termeni de
funcţia ei de repartiţie, funcţia mas¼
a de probabilitate sau densitate, suntem
interesaţi de repartiţia corespunz¼atoare pentru Y şi propriet¼ aţile momentelor
lui Y .

6.1.1 Repartiţia
Dac¼ a X este variabil¼
a aleatoare, atunci Y , …ind o funcţie de X de…nit¼ a de relaţia
(6.1), este de asemenea o variabil¼ a aleatoare. Fie RX , mulţimea valorilor lui X;
şi RY mulţimea valorilor lui Y:
Pentru …ecare rezultat X = x, rezult¼ a din relaţia (6.1) c¼
a Y = y = g (x).
Relaţia (6.1) de…neşte şi o funcţie de la RX la RY . Probabilit¼ aţile asociate cu
…ecare punct (în cazul unei variabile aleatoare discrete X) sau …ecare regiune (în
cazul unei variabile aleatoare continue X) din RX sunt transportate în punctul
sau regiunea corespunz¼ atoare din RY . Repartiţia lui Y este determinat¼ a prin
completarea acestui proces de transfer pentru …ecare punct (dac¼ a X e discret¼ a)
sau …ecare regiune de tipul Y y (dac¼a X e continu¼ a) din RY . Este posibil ca
g s¼a duc¼a mai multe puncte din RX într-un singur punct din RY . Determinarea
repartiţiei lui Y depinde astfel de forma lui g din relaţia (6.1).

Variabile aleatoare discrete Fie X variabil¼ a aleatoare discret¼


a cu funcţia
mas¼
a de probabilitate pX . Funcţia mas¼
a de probabilitate a lui Y este
X
pY (y) = pX (x) ; 8y 2 RY ;
x2g 1 (y)

1
unde g (y) = fx 2 RX jg (x) = yg.
1 0 1 2
Exemplul 6.1. Fie X 1 1 1 1 . Determinaţi repartiţia lui
2 4 8 8
2
Y = 2X + 1:
2
Valorile lui Y sunt g ( 1) = 2 ( 1) + 1 = 3; g (0) = 1; g (1) = 3; g (2) = 9.
Avem g (1) = f0g ; g (3) = f 1; 1g ; g 1 (9) = f2g, deci pY (1) = pX (0) =
1 1

74
1 1 1 5 1
4 ; pY (3) = pX ( 1) + pX (1) = 2 + 8 = 8 ; pY (9) = pX (2) = 8. De aici,
1 3 9
Y 1 5 1 :
4 8 8
Dac¼ a g : RX ! RY este injectiv¼ a, valorile posibile luate de X sunt x1 ; x2 ; :::,
valorile luate de Y sunt y1 = g (x1 ) ; y2 = g (x2 ) ; ::: şi

pX (xi ) = pi ; i = 1; 2; :::;
atunci

pY (yi ) = pY (g (xi )) = pi ; i = 1; 2; ::::


1 0 1 2
Exemplul 6.2. Fie X 1 1 1 1 . Determinaţi repartiţia lui
2 4 8 8
Y = 2X + 1:
Valorile lui Y sunt g ( 1) = 2 ( 1) + 1 = 1; g (0) = 1; g (1) = 3; g (2) = 5.
1 1 3 5
Funcţia g este injectiv¼
a, deci Y 1 1 1 1 :
2 4 8 8

Variabile aleatoare continue Consider¼ am cazul când X este o variabil¼ a


aleatoare continu¼
a cu funcţie de repartiţie FX (x) sau densitate fX (x) cunos-
cute.
Începem considerând relaţia

Y = g (X) = 2X + 1: (6.2)
Transformarea y = g (x) este prezentat¼
a gra…c în …gura urm¼
atoare.

75
Funcţia de repartiţie a lui Y este de…nit¼
a de

FY (y) = P (Y y) :
Regiunea de…nit¼
a de Y y din RY acoper¼ a porţiunea îngroşat¼
a a curbei
de transformare, dup¼
a cum e ar¼
atat în …gura al¼
aturat¼
a, care, în RX corespunde
regiunii g (X) y, sau X g 1 (y), unde

1 y1
g (y) =
2
este funcţia invers¼
a a lui g, sau soluţia x în funcţie de y a ecuaţiei (6.2). De
aici,

1 1
FY (y) = P (Y y) = P (g (X) y) = P X g (y) = FX g (y) :
(6.3)
(6.3) este relaţia dintre funcţiile de repartiţie ale lui Y şi X.

76
Relaţia dintre densit¼
aţile lui Y şi X se obţine derivând în raport cu y în
(6.3):

1
dFY (y) d 1 1 dg (y)
fY (y) = = FX g (y) = fX g (y) : (6.4)
dy dy dy

Relaţiile (6.3) şi (6.4) au loc nu doar pentru transformarea particular¼ a dat¼a
prin relaţia (6.2) dar şi pentru toate funcţiile continue g care sunt strict cresc¼
a-
toare.
Consider¼ am acum situaţia în care transformarea e dat¼ a de

Y = g (X) = 2X + 1: (6.5)
Plecând din nou cu FY (y) = P (Y y) şi raţionând ca mai sus, regiunea
1
Y y din RY corespunde regiunii X g (y), dup¼ a cum arat¼
a …gura urm¼a-
toare.

Deoarece X este continu¼ a, avem


P X g 1 (y) = P X > g 1 (y) [ X = g 1 (y) = P X > g 1
(y) +
P X = g 1 (y) = P X > g 1 (y) + 0 = P X > g 1 (y) :
De aici, avem în acest caz

77
1 1 1
FY (y) = P (Y y) = P X > g (y) = 1 P X g (y) = 1 FX g (y) :
(6.6)
În comparaţie cu relaţia (6.3), relaţia (6.6) d¼
a o leg¼
atur¼
a diferit¼
a între funcţi-
ile de repartiţie ale lui X şi Y , datorit¼
a unui g diferit.
Derivând în relaţia (6.6) în raport cu y obţinem relaţia dintre densit¼ aţile lui
X şi Y :

1
dFY (y) d 1 1 dg (y)
fY (y) = = 1 FX g (y) = fX g (y) : (6.7)
dy dy dy

Din nou observ¼ am c¼a relaţiile (6.6) şi (6.7) au loc pentru toate funcţiile
continue g care sunt strict descresc¼ atoare.
1
Deoarece derivata dg dy(y) este totdeauna pozitiv¼ a în relaţia (6.4) (pentru c¼
a
g e strict cresc¼atoare) şi este totdeauna negativ¼ a în relaţia (6.7) (pentru c¼ag
e strict descresc¼atoare), rezultatele exprimate de aceste relaţii pot … combinate
în urm¼ atoarea teorem¼ a:
Teorema 6.1. Fie X o variabil¼ a aleatoare continu¼ a şi Y = g (X), unde g
este continu¼a şi strict monoton¼ a. Atunci
1
1 dg (y)
fY (y) = fX g (y) : (6.8)
dy
Exemplul 6.3. Densitatea lui X este dat¼
a de
a
fX (x) = ; 1 < x < 1;
(x2 + a2 )
unde a > 0 (repartiţia Cauchy). Determinaţi densitatea lui Y = 2X + 1:
Deoarece g (x) = 2x + 1 este continu¼
a şi strict monoton¼ a, aplic¼
am relaţia
(6.8).
1
y = 2x + 1 () x = y 2 1 =) g 1 (y) = y 2 1 =) dg dy(y) = 21 .
Din relaţia (6.8),
fY (y) = fX y 2 1 12 = h y 1a 2 2 i 21 = (y 1) 2a
; 1 < y < 1:
( 2 ) +a [ 2
+4a2 ]

Consider¼am acum cazul când g nu este strict monoton¼ a. În …gura urm¼ atoare,
pentru y < y1 şi y > y2 , ecuaţia g (x) = y are soluţie unic¼
a şi relaţia (6.8) poate
… folosit¼
a pentru a determina densitatea lui Y în aceste intervale.

78
Pentru y1 y y2 , trebuie s¼ a plec¼
am de la început şi consider¼
am FY (y) =
P (Y y). Regiunea de…nit¼
a de Y y în RY acoper¼a porţiunile îngroşate ale
curbei y = g (x), dup¼
a cum este ar¼
atat în …gur¼
a. Astfel,

FY (y) = P (Y y) = P X g1 1 (y) + P g2 1 (y) < X g3 1 (y) =


P X g1 (y) + P X g3 1 (y)
1
P X g2 1 (y) =
1 1 1
FX g1 (y) + FX g3 (y) FX g2 (y) ; y1 < y < y2 ;
(6.9)
unde x1 = g1 1 (y) ; x2 = g2 1 (y) ; x3 = g3 1 (y) sunt r¼ ad¼
acinile ecuaţiei
g (x) = y în termeni de y.
Ca mai sus, relaţia între densit¼
aţile lui X şi Y e g¼
asit¼
a derivând în relaţia
(6.9) în raport cu y:

dg1 1 (y) dg3 1 (y) dg2 1 (y)


fY (y) = fX g1 1 (y) +fX g3 1 (y) fX g2 1 (y) ; y 1 < y < y2 :
dy dy dy
(6.10)
dg2 1 (y)
Deoarece derivata dy e negativ¼
a în timp ce celelalte sunt pozitive, relaţia
(6.10) ia forma
3
X dgj 1 (y)
fY (y) = fX gj 1 (y) ; y 1 < y < y2 : (6.11)
j=1
dy

79
Figura urm¼atoare reprezint¼
a transformarea y = sin x; aceast¼ a ecuaţie are o
in…nitate num¼
arabil¼
a de r¼ acini, x1 = g1 1 (y) ; x2 = g2 1 (y) ; ::: 8y 2 [ 1; 1] :
ad¼

Urmând procedura de mai sus se poate stabili pentru FY (y) o relaţie similar¼a
cu (6.9) (dar cu o in…nitate de termeni) şi, precum în relaţia (6.11), densitatea
lui Y are acum forma
1
X dgj 1 (y)
fY (y) = fX gj 1 (y) ; 1 < y < 1: (6.12)
j=1
dy

Se observ¼ a c¼
a fY (y) = 0 pentru y 2 = [ 1; 1], deoarece FY (y) = 0, 8y 1
şi FY (y) = 1; 8y 1:
Relaţiile (6.11) şi (6.12) conduc la urm¼ atorul rezultat:
Teorema 6.2. Fie X o variabil¼ a aleatoare continu¼ a şi Y = g (X), unde
g este continu¼ a, şi g (x) = y are un num¼ ar cel mult num¼ arabil de r¼
ad¼
acini
x1 = g1 1 (y) ; x2 = g2 1 (y2 ) ; :::. Atunci:
r
X dgj 1 (y)
fY (y) = fX gj 1 (y) ; (6.13)
j=1
dy

unde r este num¼


arul de r¼
ad¼
acini ale ecuaţiei g (x) = y.

80
Relaţia (6.8) este conţinut¼
a în aceast¼
a teorem¼
a ca un caz special (r = 1).
Exemplul 6.4. Determinaţi densitatea lui Y = X 2 , unde X N (0; 1).
Avem
1 x2
fX (x) = p e 2 ; 1 < x < 1:
2
Y 0 =) FY (y) = P (Y y) = P (;) = 0; 8y < 0 =) fY (y) = FY0 (y) =
0; 8y < 0. Pentru y > 0, r¼ acinile lui x2 = y sunt
ad¼
p
x1;2 = g1;21 (y) = y:
De aici, folosind relaţia (6.13),
X2
dgj 1 (y) p p
fY (y) = fX gj 1 (y) dy = fX y 1
p
2 y + fX y 1
p
2 y =
j=1
y
p1 e 2 ;
2 y
deci
y
p1 e 2 , pentru y > 0;
fY (y) = 2 y
0, altfel.
Am obţinut repartiţia 2 cu un grad de libertate (vezi relaţia (5.24)), deoarece
Z 1 2 Z 1 Z 1
1 1 u= x2 p x2 p x2 p
u 1
2 = u e du = 2 x e xdx = 2 e 2 dx = 2
2 2

Z 1 0 0 0
1 x2 1
p p
2 e 2 dx = 2 2 =
p :
1

6.1.2 Momente
Fie Y = g (X) şi presupunem c¼ a toate momentele dorite ale lui Y exist¼
a. Mo-
mentul de ordinul n al lui Y este

X
E (Y n ) = E (g n (X)) = g n (xi ) pX (xi ) , dac¼
a X e discret¼
a,
Zi 1 (6.14)
n n
E (Y ) = E (g (X)) = g n (x) fX (x) dx, dac¼
a X e continu¼
a.
1

1 0 1 2
Exemplul 6.5. Fie X 1 1 1 1 . Determinaţi media şi disper-
2 4 8 8
sia lui Y = 2X + 1:
Folosim prima relaţie (6.14).
X
1 1 1 1
E (Y ) = E (2X + 1) = (2xi + 1) pX (xi ) = ( 1) 2 +1 4 +3 8 +5 8 = 34 :
i
2
X 2
2 1 1 1 1
E Y = E (2X + 1) = (2xi + 1) pX (xi ) = 1 2 +1 4 +9 8 +25 8 =
i
5:
2 3 2 71
Y =E Y2 E 2 (Y ) = 5 4 = 16 :

81
6.2 Funcţii de dou¼
a sau mai multe variabile aleatoare
Consider¼
am transformarea

Y = g (X1 ; X2 ; :::; Xn ) ; (6.15)


unde X1 ; X2 ; :::; Xn sunt variabile aleatoare a c¼
aror repartiţie comun¼
a se cunoaşte.
Vrem s¼a determin¼ am repartiţia lui Y .
Fie X vectorul aleator n-dimensional cu componentele X1 ; X2 ; :::; Xn şi x
vectorul n-dimensional cu componentele x1 ; x2 ; :::; xn .
Dac¼a X1 ; X2 ; :::; Xn sunt discrete cu masa comun¼ a pX (x), atunci masa lui
Y este
X
pY (y) = pX (x) ; 8y 2 RY ;
x2g 1 (y)

unde g 1 (y) = fx 2 RX jg (x) = yg, iar RX este mulţimea valorilor lui X.


Presupunem acum c¼ a X1 ; X2 ; :::; Xn sunt continue şi cunoaştem densitatea
comun¼a fX (x) sau funcţia de repartiţie comun¼a FX (x). Avem

FY (y) = P (Y y) = P (g (X) y) = FX (x : g (x) y) : (6.16)

Ultima expresie din relaţia (6.16) reprezint¼


a funcţia de repartiţie comun¼
a a lui
X pentru care argumentul x satisface g (x) y. În termeni de fX (x) este dat¼ a
de
Z Z
FX (x : g (x) y) = fX (x) dx; (6.17)
(Rn :g(x) y)
n
unde Rn = fx 2 R jg (x) yg. FY (y) poate … determinat¼
a evaluând integrala
din relaţia (6.17).

6.2.1 Sume de variabile aleatoare


Consider¼
am suma

Y = g (X1 ; X2 ; :::; Xn ) = X1 + X2 + ::: + Xn :


E su…cient s¼a determin¼am fY (y) pentru n = 2. Rezulatatul pentru acest caz
poate … apoi aplicat succesiv pentru a da repartiţia sumei oric¼ arui num¼
ar de
variabile aleatoare. Pentru Y = X1 + X2 , relaţiile (6.16) şi (6.17) dau
ZZ
FY (y) = fX1 X2 (x1 ; x2 ) dx1 dx2 ;
(R2 :x1 +x2 y)

şi, dup¼
a cum se observ¼
a din …gura urm¼ a R2 =
atoare, în care este reprezentat¼
2
x 2 R jx1 + x2 y , avem

82
Z 1 Z y x2
FY (y) = fX1 X2 (x1 ; x2 ) dx1 dx2 : (6.18)
1 1

Derivând în relaţia (6.18) în raport cu y, obţinem


Z 1
fY (y) = fX1 X2 (y x2 ; x2 ) dx2 : (6.19)
1

Când X1 şi X2 sunt independente, relaţia (6.19) devine


Z 1
fY (y) = fX1 (y x2 ) fX2 (x2 ) dx2 : (6.20)
1

Integrala din relaţia (6.20) se numeşte convoluţia funcţiilor fX1 (x1 ) şi fX2 (x2 ) :
Teorema 6.3. Fie X1 şi X2 variabile aleatoare continue independente şi
Y = X1 + X2 . Atunci densitatea lui Y este convoluţia densit¼ aţilor lui X1 şi X2 ,
adic¼
a

Z 1 Z 1
fY (y) = fX1 (y x2 ) fX2 (x2 ) dx2 = fX2 (y x1 ) fX1 (x1 ) dx1 :
1 1
(6.21)

83
6.3 m funcţii de n variabile aleatoare
Fie

Yj = gj (X1 ; :::; Xn ) ; j = 1; 2; :::; m; m n: (6.22)


Vrem s¼ a obţinem repartiţia comun¼ a a variabilelor aleatoare Yj ; j = 1; 2; :::; m,
ştiind repartiţia comun¼ a a variabilelor aleatoare Xk ; k = 1; 2; :::; n.
Dac¼a X1 ; X2 ; :::; Xn sunt discrete cu masa comun¼ a pX (x), atunci masa co-
mun¼ a a variabilelor aleatoare Y1 ; :::; Ym este
X
pY (y) = pX (x) ; 8y 2 RY ;
x2g 1 (y)

unde g are componentele g1 ; g2 ; :::; gm , g 1 (y) = fx 2 RX jg (x) = yg, iar RX


şi RY sunt mulţimile valorilor lui X, respectiv Y.
Presupunem acum c¼ a X1 ; X2 ; :::; Xn sunt continue.
Consider¼ am mai întâi cazul m = n.
Fie X şi Y vectori aleatori n-dimensionali cu componentele X1 ; :::; Xn , re-
spectiv Y1 ; :::; Yn . Relaţia (6.22) se scrie vectorial

Y = g (X) ; (6.23)
unde g (X) are componentele g1 (X) ; g2 (X) ; :::; gn (X). Consider¼ am întâi cazul
în care funcţiile gj din g sunt continue în raport cu …ecare argument, au derivate
parţiale continue şi sunt bijective. Atunci rezult¼ a funcţiile inverse gj 1 din
a c¼
g 1 de…nit¼ a de
1
X=g (Y) ;
exist¼
a şi sunt unice. Au de asemenea derivate parţiale continue.
Pentru a determina fY (y) în termeni de fX (x), observ¼ am c¼
a, dac¼
a o regiune
n n
închis¼
a RX din mulţimea valorilor lui X este dus¼
a într-o regiune închis¼
a RY din
mulţimea valorilor lui Y prin transformerea g, conservarea probabilit¼ aţii d¼a
Z Z Z Z
fY (y) dy = fX (x) dx; (6.24)
n
RY n
RX

unde integralele reprezint¼


a n integrale în raport cu componentele lui x, respectiv
y. Urmând regula uzual¼ a de schimbare de variabile în integrale multiple, putem
scrie
Z Z Z Z
fX (x) dx = fX g 1 (y) jJj dy; (6.25)
n
RX n
RY

unde J este Jacobianul transform¼


arii, de…nit ca determinantul

84
@g1 1 @g1 1 @g1 1
@y1 @y2 ::: @yn
J= .. .. .. : (6.26)
. . .
1 1 1
@gn @gn @gn
@y1 @y2 ::: @yn

Relaţiile (6.24) şi (6.25) conduc la urm¼atorul rezultat.


Teorema 6.4. Pentru transformarea dat¼ a de relaţia (6.23), unde X este
un vector aleator continuu şi g este continu¼ a cu derivate parţiale continue şi
bijectiv¼
a, densitatea comun¼ a a lui Y este
1
fY (y) = fX g (y) jJj ; (6.27)
unde J este de…nit de relaţia (6.26).
Exemplul 6.6. Fie X1 şi X2 variabile aleatoare independente identic repar-
tizate N (0; 1). S¼ a se determine densitatea comun¼ a a lui Y1 = X1 + X2 şi
Y2 = X1 X2 :
x1 + x2 = y1
Deoarece sistemul are soluţia unic¼
a
x1 x2 = y2
y 1 + y2 y 1 y2
x1 = g1 1 (y) = ; x2 = g2 1 (y) = ;
2 2
g este bijectiv¼
a şi se poate aplica teorema 6.4. Jacobianul este

@g1 1 @g1 1 1 1
@y1 @y2 2 2
1
J= @g2 1 @g2 1
= 1 1 = :
2 2 2
@y1 @y2

Datorit¼
a independenţei, relaţia (6.27) conduce la
2 2
( y1 +y2
) p1 ( y1 2 y2 )
fY1 Y2 (y1 ; y2 ) = fX1 g1 1 (y) fX2 g2 1 (y) jJj = p12 exp 2
2 2
exp 2
h i h i
1 1 (y1 +y2 )2 (y1 y2 )2 y12 +y22
2 = 4 exp 8 exp 8 = 41 exp 4 ; y1 ; y2 2 R:
Observ¼ am c¼ a rezultatul poate … scris sub forma

fY1 Y2 (y1 ; y2 ) = fY1 (y1 ) fY2 (y2 ) ;


unde

1 y12
fY1 (y1 ) = p exp ; y1 2 R;
4 4

1 y22
fY2 (y2 ) = p exp ; y2 2 R;
4 4
implicând c¼ a, deşi Y1 şi Y2 sunt ambele funcţii de X1 şi X2 , ele sunt independente
şi identic repartizate N (0; 2).
Relaţia (6.27) este o extindere a relaţiei (6.8), care este pentru cazul special
n = 1. Similar, o extindere este de asemenea posibil¼ a pentru relaţia (6.13)
pentru cazul n = 1 când ecuaţia are mai mult de o r¼ ad¼acin¼a.

85
Teorema 6.5. În transformarea dat¼ a de relaţia (6.23), presupunem c¼ a
ecuaţia g (x) = y are un num¼
ar cel mult num¼
arabil de r¼ acini x1 = g1 1 (y) ; x2 =
ad¼
g2 1 (y) ; :::. Atunci
r
X
fY (y) = fX gj 1 (y) jJj j ; (6.28)
j=1

unde r este num¼


arul de r¼
ad¼
acini ale ecuaţiei g (x) = y şi
@gj11 @gj11 @gj11
@y1 @y2 ::: @yn
Jj = .. .. .. :
. . .
@gjn1 @gjn1 @gjn1
@y1 @y2 ::: @yn

Aici gj11 ; gj21 ; :::; gjn1


sunt componentele lui gj 1 .
Rezultatele prezentate mai sus pot … de asemenea aplicate în cazul când
dimensiunea lui Y este mai mic¼ a decât cea a lui X. Consider¼am transformarea
(6.22) în care m < n. Pentru a folosi formulele de mai sus, întâi complet¼ am
vectorul aleator m-dimensional Y cu un alt vector aleator (n m)-dimensional
Z. Vectorul Z poate … construit ca o funcţie simpl¼
a de X, în forma

Z = h (X) ; (6.29)
unde h este continu¼ a şi are derivate parţiale continue. Combinând relaţiile (6.22)
şi (6.29), avem o transformare de la n variabile aleatoare la n variabile aleatoare,
şi densitatea comun¼ a a lui Y şi Z poate … obţinut¼ a cu relaţia (6.27) sau relaţia
(6.28). Densitatea comun¼ a a lui Y singur se g¼ aseşte apoi prin integrare în raport
cu componentele lui Z.

86
Part II
Statistic¼
a
7 Statistic¼a descriptiv¼ a pentru date unudimen-
sionale (reprezent¼ ari gra…ce, funcţie de repar-
tiţie de selecţie, momente de selecţie)
7.1 Histograme şi diagrame de frecvenţe
Fiind dat un set de observaţii independente x1 ; x2 ; :::; xn , ale unei variabile
aleatoare X, un prim pas util este organizarea şi prezentarea lor adecvat¼ a astfel
încât ele s¼
a poat¼ a … uşor inerpretate şi evaluate. Când exist¼
a un num¼ ar mare
de date observate, o histogram¼a este o reprezentare gra…c¼ a excelent¼
a a datelor,
facilitând
a) o evaluare a adecv¼ arii modelului presupus,
b) estimarea percentilelor repartiţiei,
c) estimarea parametrilor repartiţiei.
Consider¼am, de exemplu, un proces chimic care este producerea de loturi
(batches) dintr-un material; 200 de valori observate ale randamentului procen-
tual (percentage yield), X, reprezentând un eşantion relativ mare sunt date în
tabelul urm¼ ator.

87
Valorile eşantionului variaz¼
a de la 64 la 76. Împ¼arţind acest interval în 12
intervale egale şi reprezentând num¼arul total de randamente observate în …ecare
interval ca în¼
alţimea dreptunghiului de deasupra intervalului rezult¼a histograma
dup¼a cum e ar¼ atat în …gura urm¼atoare.

88
O diagram¼a de frecvenţe este obţinut¼ a dac¼a ordonata histogramei este îm-
p¼ arţit¼
a la num¼ arul total de observaţii, 200 în acest caz, şi la l¼aţimea
intervalului (care se întâmpl¼ a s¼
a …e 1 în acest exemplu). În dreapta …gurii
este reprezentat¼ a ordonata diagramei de frecvenţe. Vedem c¼ a histograma sau
diagrama frecvenţelor d¼ a o impresie imediat¼ a asupra valorilor, frecvenţei relative
şi împr¼ aştierii asociate datelor.
Diagrama frecvenţelor din …gur¼ a are propriet¼aţile unei densit¼ aţi (suma ari-
ilor dreptunghiurilor este 1). De aici pot … estimate probabilit¼ aţile asociate
cu diverse evenimente. De exemplu, probabilitatea unui lot având randament
mai mic decât 68% poate … calculat¼ a din diagrama frecvenţelor adunând ariile
de la stânga lui 68% şi obţinând 0; 13 (0; 02 + 0; 01 + 0:025 + 0:075). Simi-
lar, probabilitatea unui lot având un randament mai mare de 72% este 0; 18
(0; 105 + 0; 035 + 0; 03 + 0; 01). Acestea sunt probabilit¼ aţi calculate pe baza
datelor observate. Un set diferit de date obţinute din acelaşi proces chimic ar
conduce în general la o diagram¼ a de frecvenţe diferit¼a şi deci la valori diferite
pentru aceste probabilit¼ aţi. În consecinţ¼
a, ele sunt estim¼ ari ale probabilit¼ aţilor
P (X < 68) şi P (X > 72) asociate cu variabila aleatoare X.

89
Pentru acest exemplu, alegerea a 12 intervale este convenabil¼ a datorit¼a in-
tervalului de valori luate de observaţii şi faptului c¼
a rezoluţia rezultat¼a este
adecvat¼a pentru calculele de probabilit¼aţi de mai sus. În …gura urm¼ atoare este
construit¼
a o histogram¼a folosind 4 intervale în loc de 12 pentru acelaşi exemplu.

Se observ¼a c¼
a proiecteaz¼
a o impresie vizual¼a mult diferit¼
a şi cu o mai mic¼
a
acurateţe a comportamentului datelor. Astfel, e important s¼ a …e ales num¼arul
de intervale în concordanţ¼
a cu informaţia care se vrea extras¼
a din modelul
matematic. Ca un ghid practic, Sturges a sugerat în 1926 ca o valoare aproxi-
mativ¼a pentru num¼ arul de intervale k s¼
a …e dat¼a de

k ' 1 + 3; 3 lg n;
unde n este num¼ arul de date.
Din punctul de vedere al model¼ arii, este rezonabil s¼
a alegem o repartiţie
normal¼a ca model probabilistic pentru randamentul procentual X observând

a variaţiile aleatoare ale ei sunt rezultanta a numeroase surse aleatoare inde-
pendente în procesul chimic de fabricare. Dac¼ a aceasta este sau nu o alegere
rezonabil¼a poate … evaluat intr-un mod subiectiv folosind diagrama frecvenţelor
din …gura al¼ aturat¼
a. Densitatea repartiţiei normale de medie 70 şi dispersie 4
este trasat¼ a punctat pe diagrama frecvenţelor, ar¼ atând o potrivire rezonabil¼ a.
Bazându-ne pe aceast¼ a repartiţie normal¼a, putem calcula probabilit¼
aţile de mai

90
sus, dând o alt¼a evaluare a adecv¼ arii modelului. De exemplu, cu ajutorul tabelu-
lui valorilor repartiţiei N (0; 1) ;
P (X < 68) = FU 68 2 70 = FU ( 1) = 1 FU (1) = 1 0; 8413 = 0; 1587;
care se compar¼ a cu 0; 13 obţinut¼ a folosind diagrama frecvenţelor.
În cele de mai sus, alegerile lui 70 şi 4 ca estim¼ ari pentru media, respec-
tiv dispersia lui X, sunt f¼ acute observând c¼ a media repartiţiei ar trebui s¼
a …e
aproape de media aritmetic¼ a a selecţiei, adic¼a
n
1X
mX ' xj ;
n j=1

şi dispersia poate … aproximat¼


a prin
n
2 1X 2
X ' (xj mX ) :
n j=1

În cazul unei variabile aleatoare discrete, histograma şi diagrama de frecvenţe


obţinute din datele observate iau forma unei reprezent¼ ari în batoane, spre deose-
bire de dreptunghiurile conectate din cazul continuu. Consider¼ am, de exemplu,
repartiţia num¼
arului de accidente pe şofer de-a lungul unei perioade de timp de
6 ani în California. Datele din tabelul urm¼ ator sunt înregistr¼arile accidentelor
pe 6 ani ale 7842 de şoferi californieni.

Bazat¼a pe acest set de observaţii, histograma are forma dat¼


a în …gura ur-

atoare.

91
Diagrama frecvenţelor este obţinut¼
a în acest caz prin împ¼
arţirea ordonatei his-
togramei la num¼
arul total de observaţii, care este 7842.

7.2 Selecţii şi statistici


În cele mai multe cazuri este imposibil sau nerealist s¼ a se observe întreaga
populaţie. Unele populaţii au membri care înc¼ a nu exist¼a (de exemplu, loturile
viitoare din producţia de ciment), sau populaţia este prea mare (de exemplu,
toate femeile îns¼ arcinate). De aceea cercet¼ atorii m¼ asoar¼a doar o parte a popu-
laţiei ţint¼
a, numit¼
a selecţie sau eşantion. Dac¼ a facem deducţii despre populaţie
folosind informaţia obţinut¼ a dintr-o selecţie, atunci este important ca selecţia

a …e reprezentativ¼ a pentru populaţie, ceea ce poate … atins dac¼ a toate selecţiile
posibile sunt egal probabil s¼ a …e alese.
Uneori scopul statisticii este utilizarea selecţiei pentru a estima sau a face
unele a…rmaţii despre un parametru al populaţiei. Un parametru este o m¼ asur¼ a
descriptiv¼ a pentru o populaţie sau pentru o repartiţie a variabilelor aleatoare.

92
De exemplu, parametrii populaţiei care pot … de interes includ media, deviaţia
standard, cuantile, proporţii, coe…cienţi de corelaţie, etc.
Presupunem c¼ a un model probabilistic, reprezentat de densitatea f (x), a
fost ales pentru un fenomen …zic sau natural pentru care parametrii 1 ; 2 ; :::
trebuie estimaţi din datele observate independent x1 ; x2; :::; xn . Consider¼ am pen-
tru moment un singur parametru pentru simplitate şi scriem f (x; ) pentru
o densitate speci…cat¼ a unde este parametrul necunoscut care trebuie estimat.
Problema estim¼ arii parametrului este atunci una a determin¼ arii unei funcţii
corespunz¼atoare de x1 ; x2; :::; xn , s¼
a spunem h (x1 ; x2; :::; xn ), care d¼a "cea mai
bun¼a" estimare a lui .
Fiind dat un set de date independente x1 ; x2; :::; xn , …e

b = h(x1 ; x2; :::; xn )

o estimare a parametrului . Dac¼ a experimentul care a dat setul de date s-


ar repeta, am obţine valori diferite pentru x1 ; x2; :::; xn . Funcţia h(x1 ; x2; :::; xn )
aplicat¼
a la noul set de date ar da o valoare diferit¼a pentru b. Vedem astfel c¼ a es-
b
timarea este ea îns¼ aşi o variabil¼
a aleatoare avand o densitate, care depinde atât
de forma funcţiei h cât şi de densitatea variabilei aleatoare X. Reprezentarea
corespunz¼ atoare a lui b e astfel
b = h(X1 ; X2 ; :::; Xn ); (7.1)

unde X1 ; X2 ; :::; Xn sunt variabile aleatoare reprezentând o selecţie din variabila


aleatoare X, care este numit¼ a în acest context populaţie.
Presupunem c¼ a selecţia X1 ; X2 ; :::; Xn are urm¼atoarele propriet¼aţi:
Proprietatea 1: X1 ; X2 ; :::; Xn sunt independente.
Proprietatea 2: fXj (x) = fX (x), 8x; j = 1; 2; :::; n:
Variabilele aleatoare X1 ; X2 ; :::; Xn satisf¼ acând aceste condiţii se numesc o
selecţie aleatore de m¼ arime n. Cuvântul "aleatore" din aceast¼ a de…niţie este de
obicei omis pentru scurtime. Daca X este o variabil¼ a aleatoare discret¼ a cu masa
pX (x), atunci pXj (x) = pX (x), 8j:
Un set speci…c de valori observate (x1 ; x2 ; :::; xn ) este un set de valori ale
selecţiei.
Datorit¼ a propriet¼aţilor 1 şi 2, densitatea comun¼ a este dat¼
a de

fX1 X2 :::Xn (x1 ; x2 ; :::; xn ) = fX (x1 ) fX (x2 ) :::fX (xn ) :


O statistic¼a este o funcţie de o selecţie dat¼
a X1 ; X2 ; :::; Xn care nu depinde
de parametrul necunoscut. Funcţia h (X1 ; X2 ; :::; Xn ) din (7.1) este o statistic¼ a
pentru care valoarea poate … determinat¼ a odat¼
a ce valorile selecţiei au fost
observate. O statistic¼ a, …ind o funcţie de variabile aleatoare, este o variabil¼ a
aleatoare. Adesea o statistic¼ a este folosit¼
a pentru urm¼ atoarele scopuri
- ca o estimare punctual¼ a pentru un parametru al populaţiei,
- pentru a obţine o estimare a intervalului de încredere pentru un parametru,
sau,
- ca un test statistic în testarea ipotezelor.

93
7.2.1 Media de selecţie
Statistica
n
1X
X= Xi
n i=1
e numit¼
a media de selecţie a populaţiei X. Fie media şi dispersia populaţiei

E(X) = m;
(7.2)
var(X) = 2 :
Media mediei de selecţie X este
n
1X 1
E(X) = E (Xi ) = (nm) = m:
n i=1 n

Dispersia mediei de selecţie X 0


este
" n #2 1
2 X
var(X) = E X m = E @ n1 (Xi m) A =
i=1
0" #2 1
n
X
1 @ m) A =
n2 E (Xi
i=1
0 1
n
X X
@ 2
1
n2 E (Xi m) + 2 (Xi m) (Xj m)A =
i=1 1 i<j n
2 3
Xn X
4 2
1
n2 E (Xi m) +2 E ((Xi m) (Xj m))5 =
i=1 1 i<j n
2 3
Xn X indep endenţ¼
a
1 4 2
+2 E ((Xi m) (Xj m))5 =
n2
i=1 1 i<j n
2 3
6 n 7
6X 2 X 7 2
1 6 +2 E ((Xi m))E ((Xj m))7 = 1
n 2
= ;
n2 6 | {z }| {z }7 n2 n
4 i=1 1 i<j n 5
| {z } =0 =0
=n 2

deci
2
var(X) =
;
n
care este invers proporţional¼ a cu m¼arimea selecţiei n. Când n creşte, dispersia
lui X descreşte şi repartiţia lui X devine ascuţit¼a cu vârful în E(X) = m. De
aici, este clar intuitiv c¼
a statistica X d¼a o bun¼
a procedur¼ a de estimare a mediei
populaţiei m.
Deoarece X este o sum¼ a de variabile aleatoare independente, pe baza teo-
remei limit¼ a central¼a, media de selecţie X tinde la o repartiţie normal¼ a când

94
1
n ! 1. Mai precis, variabila aleatoare X m p
n
tinde la N (0; 1) când
n ! 1.

7.2.2 Dispersia de selecţie


Statistica
n
X
1 2
S2 = Xi X (7.3)
n 1 i=1
se numeşte dispersia de selecţie a populaţiei X.
(7.3))
Xn
2 1 2
S =n 1 (Xi m) X m =
2 i=1 32
n
X n
X
1 4(Xi m) 1
(Xj m)5 =
n 1 n
i=1 j=1
8 2 32 9
Xn >< n
X Xn >
=
1 2 2 1 4 5
(X m) (Xi m) (Xj m) + (Xj m) =
n 1 > i n n2 >
i=1 : j=1 j=1 ;
8 " #2 " #2 9
<X n n
X n
X =
1 2 2 1
n 1 : (Xi m) n (Xi m) + n (Xi m) =
;
i=1 i=1 i=1
8 " #2 9
<X n n
X =
1 2 1
n 1 : (Xi m) n (Xi m) =
;
i=1 i=1
8 2 39
<X n Xn X =
2 4 2
1
n 1 : (Xi m) 1
n (Xi m) + 2 (Xi m) (Xj m)5 =
;
i=1 i=1 1 i<j n
n
X X
1 2 2
n (Xi m) n(n 1) (Xi m) (Xj m) :
i=1 1 i<j n
De aici, media lui S 2 este
E(S 2 ) =
Xn X
1 2 2 indep endenţ¼
a
n E (Xi m) n(n 1) E ((Xi m) (Xj m)) =
i=1 1 i<j n
Xn X
1 2 2 2
n E (Xi m) n(n 1) E (Xi m)E (Xj m) = :
| {z }
i=1 | {z } 1 i<j n
2
=0
=
Deci
E(S 2 ) = 2
;
unde m şi sunt de…nite de (7.2). Motivul folosirii lui n 1 1 în loc de n1 în (7.3)
2

este de a face media lui S 2 egal¼


a cu 2 . Aceasta este o proprietate de dorit
2
pentru S dac¼ a la estimarea lui 2 , adev¼
a aceasta este folosit¼ arata dispersie a
lui X.

95
Dispersia lui S 2 este a‡at¼
a din

2 2
var(S 2 ) = E S2 :

Se obţine

1 n 3
var(S 2 ) = 4
4
;
n n 1
unde 4 este momentul centrat de ordinul 4 al lui X, adic¼
a
4
4 = E (X m) :

a S 2 este dispersia de selecţie de m¼


Teorema 7.1. Dac¼ arime n a unei
2 (n 1)S 2 2
populaţii X N m; , atunci 2 are o repartiţie cu (n 1) grade de
libertate.

7.2.3 Momente de selecţie


Momentul de selecţie de ordinul k este
n
1X k
Mk = X :
n i=1 i
Observ¼
am c¼a media de selecţie se obţine pentru k = 1:
Se poate ar¼
ata c¼
a

E (Mk ) = k ;
var (Mk ) = n1 2k
2
k ;
unde k este momentul de ordinul k al lui X.
Momentul centrat de selecţie de ordinul k este
n
1X k
Mkc = Xi X :
n i=1

7.2.4 Statistici de ordine şi funcţia de repartiţie de selecţie


O selecţie X1 ; X2 ; :::; Xn poate … pus¼ a în ordine cresc¼
atoare. Astfel, pentru
aceast¼
a selecţie, statisticile de ordine sunt de…nite ca

X(1) X(2) ::: X(n) ;


cu X(i) …ind a i-a statistic¼a de ordine.
Funcţia de repartiţie de selecţie Fbn (x) este de…nit¼
a ca num¼
arul de date mai
mic sau egal cu x împ¼ arţit la m¼arimea selecţiei n. Ea poate … exprimat¼ a în
termeni de statistici de ordine astfel:

96
8
< 0, dac¼
a x < X(1) ;
Fbn (x) = j
, dac¼
a X(j) x < X(j+1) ;
: n
1, dac¼
a x X(n) :
Funcţia de repartiţie de selecţie estimeaz¼a neparametric funcţia de repartiţie
a populaţiei X. În …gura urm¼ atoare sunt reprezentate o funcţie de repartiţie de
selecţie şi funcţia de repartiţie pentru normala standard.

97
8 Estimarea parametrilor unor repartiţii prin metoda
verosimilit¼
aţii maxime
8.1 Criterii de calitate pentru estim¼
ari
Statistica

b = h (X1 ; X2 ; :::; Xn )

se numeşte un estimator pentru :


Odat¼
a ce am observat valorile selecţiei x1 ; x2 ; :::; xn , estimatorul observat,

b = h (x1 ; x2 ; :::; xn ) ;

are o valoare numeric¼


a şi va … numit o estimare a parametrului .

8.1.1 Nedeplasare
De…niţie. Un estimator b se numeşte estimator nedeplasat pentru dac¼
a

E b = ;

şi deplasat în caz contrar.


Deplasarea estimatorului b este de…nit¼
a ca

bias b = E b :
n
X
1
Exemple. 1) Media de selecţie X = n Xi este estimator nedeplasat
i=1
pentru media populaţiei m deoarece E X = m.
n
X
2 1 2
2) Dispersia de selecţie S = n 1 Xi X este estimator nedeplasat
i=1
2
pentru dispersia populaţiei deoarece E S 2 = 2
.
n
X
1 2
3) Estimatorul S 2 = n Xi X este estimator deplasat pentru 2

i=1
deoarece E S 2 = nn 1 2 . De aceea pentru de…nirea dispersiei de selecţie se
a coe…cientul n 1 1 in locul alegerii mai naturale n1 . Deplasarea lui S 2 este
prefer¼
2
n 1
bias S 2 = 2 2
= :
n n

8.1.2 Dispersie minim¼


a
De…niţie. Fie b un estimator nedeplasat pentru . El este un estimator
nedeplasat de dispersie minim¼a dac¼a pentru toţi ceilalţi estimatori nedeplasaţi
pentru din aceeaşi selecţie avem

98
var b var ( ):

Fiind daţi 2 estimatori nedeplasaţi pentru un parametru dat, cel cu dispersie


mai mic¼ a este preferat deoarece dispersia mai mic¼a implic¼a faptul c¼
a valorile ob-
servate ale estimatorului tind sa …e mai aproape de media lui, valoarea adevarat¼ a
a parametrului.
Exemplu. Am v¼ azut c¼a X obţinut dintr-o selecţie de m¼arime n este un
estimator nedeplasat pentru media populaţiei m. Creşte calitatea lui X când n
creşte?
E X = m şi este independent¼ a de volumul eşantionului. Deci X r¼ amâne
nedeplasat când n creşte. Pe de alt¼ a parte
2
; var X =
n
şi descreşte când n creşte. Pe baza criteriului dispersiei minime, calitatea
lui X ca estimator pentru m creşte când n creşte.
Teorema 8.1 (inegalitatea Rao-Cramer). Fie X1 ; X2 ; :::; Xn o selecţie
de m¼ arime n din o populaţie X cu densitatea f (x; ), unde este parametrul
necunoscut, şi …e b = h (X1 ; X2 ; :::; Xn ) un estimator nedeplasat pentru .
Atunci, dispersia lui b satisface inegalitatea
!! 1
2
@ ln f (X; )
var b nE ; (R.C.)
@

dac¼a media şi derivata parţial¼ a scrise exist¼ a. Presupunem c¼ a se poate deriva in
raport cu sub integral¼ a. Un rezultat analog se obţine dac¼ a X este discret¼ a
înlocuind f (X; ) cu p (X; ), unde p (x; ) este masa populaţiei X:
nedeplasare X1 ;:::;Xn indep endente
Demonstraţie. = E b = E (h (X1 ; X2 ; :::; Xn )) =
Z 1 Z 1 @
@
::: h (x1 ; :::; xn ) f (x1 ; ) :::f (xn ; ) dx1 :::dxn =)
1 1

1= 2 3
Z 1 Z 1 Xn
@f (xj ; ) 5
::: h (x1 ; :::; xn ) 4 1
f (xj ; ) @ f (x1 ; ) :::f (xn ; ) dx1 :::dxn =
1 1 j=1
2 3
Z 1 Z 1 Xn
@ ln f (x ; )
::: h (x1 ; :::; xn ) 4 @
j 5 f (x1 ; ) :::f (xn ; ) dx1 :::dxn :
1 1 j=1

Z (8.1)
1 @
@
f (x; ) densitate ) 1 = f (xi ; ) dxi , i = 1; 2; :::; n =)
Z 1 Z 1
1
@f (xi ; ) @ ln f (xi ; )
0= @ dxi = @ f (xi ; ) dxi , i = 1; 2; :::; n:
1 1

99
n
X @ ln f (X j; )
Fie Y = @ )
j=1
Xn Xn Z1
@ ln f (Xj ; ) @ ln f (xj ; )
E (Y ) = E @ = f (xj ; ) dxj = 0:
j=1 j=1 1
@
| {z }
=0
X1 ; :::; Xn independente ) @ ln f@(X1 ; ) ; :::; @ ln f@(Xn ; )
independente )
X n
2 @ ln f (Xj ; )
Y = var @ =
j=1
02 32 1
n
X B6 @ ln f (Xj ; @ ln f (Xj ; ) 7 C X n h i2
EB6 7 C=
) @ ln f (Xj ; )
@4 @ E 5 A E @
@
j=1 | {z } j=1
=0
n
X h i2 h i2
@ ln f (X; ) @ ln f (X; )
= E @ = nE @ :
j=1
(8.1)
1 = E( b Y ) = E b E (Y ) + bY b Y = bY b Y )
| {z }
=0
1 2
2 2 = bY 1)
b Y
h i2 1
2 1 @ ln f (X; )
b 2 = nE @ :
Y

De…niţie. Marginea inferioar¼ a a dispersiei oric¼


arui estimator nedeplasat
dat¼a de inegalitatea (RC) este în general o funcţie de şi o numim marginea
inferioar¼a Rao-Cramer. Notaţie
h i2 1
@ ln f (X; )
MIRC = nE @ :
1
@ 2 ln f (X; )
Observaţie. MIRC = nE @ 2
:
Z 1 @
@
Demonstraţie. f (x; ) densitate ) 1 = f (x; ) dx =)
Z 1 Z 1 1
@
@f (x; ) @ ln f (x; ) @
0= @ dx = @ f (x; ) dx =)
12 1 3
Z 1 6 2 7
6 @ ln f (x; ) @ ln f (x; ) @f (x; ) 7
0= 6 @ 2 f (x; ) + @ 7 dx =
14 | @{z } 5
@ ln f (x; )
= f (x; )
Z 1 h i2
@

@ 2 ln f (x; ) @ ln f (x; )
@ 2
f (x; ) + @ f (x; ) dx =)
Z 1
1
h i2 Z 1
@ ln f (x; ) @ 2 ln f (x; )
@ f (x; ) dx = @ 2
f (x; ) dx =)
1 1
h i2
@ ln f (X; ) @ 2 ln f (X; )
E @ = E @ 2
=)

100
h i2 1 1
@ ln f (X; ) @ 2 ln f (X; )
MIRC = nE @ = nE @ 2
:

De…niţie. Fie b estimator nedeplasat pentru parametrul . E…cienţa lui


b este e b = M IRC :
var ( b )
Observaţie. E…cienţa oric¼ arui estimator nedeplasat este 1:
De…niţie. Un estimator nedeplasat cu e…cienţa 1 se numeşte estimator
e…cient.
Observatie. Din inegalitatea Rao-Cramer rezult¼ a c¼
a orice estimator e…cient
este estimator nedeplasat de dispersie minim¼ a.
Reciproc este adev¼ arat doar dac¼a exist¼
a un estimator e…cient.
Exemple. 1) Fie X N m; 2 . Pe baza unei selecţii …xate de m¼ arime n,
este X estimator e…cient pentru m?
Am v¼azut c¼a X este estimator nedeplasat pentru m. Calcul¼ am MIRC pentru
dispersia oric¼
arui estimator h nedeplasat
i pentru m:
(X m)2 (X m)2
f (X; m) = p21 exp 2 2 =) ln f (X; m) = ln p21 2 2 =)
@ ln f (X;m) X m
@m = 2 )
h i2 2
@ ln f (X;m) 1 2 1
E @m = 4 E (X m) = 4 = 2 =)
h i2 1
2
@ ln f (X; )
MIRC = nE @ = n :
2
Dar var X = n =) var X = MIRC =) X estimator e…cient pentru
m:
2) Fie X N 0; 2 , unde 2 este un parametru necunoscut ce trebuie
estimat dintr-o selecţie de m¼
arime n > 1.
a) S¼
a se determine MIRC pentru dispersia oric¼ arui estimator nedeplasat
pentru 2 .
b) Este dispersia de selecţie S 2 un estimator e…cient pentru 2 ?
X2
R. a) Not¼am = 2 =) f (X; ) = 1 1 exp 2 =)
(2 )2
X2 1
ln f (X; ) = 2 2 ln 2 =)
2 2
@ ln f (X; ) X2
@ = 2X 2 2
1
=) @ ln@f (X;
2
)
= 3 + 1
2 2
=)
2
E @ ln@f (X; 2
)
= 1
3E X
2
+ 212 = 3 + 1
2 2
= 212 =)
| {z }
= 2
1
@ 2 ln f (X; ) 2 2
MIRC = nE @ 2
= n :
2
b) Am v¼
azut c¼a S este un estimator
) nedeplasat pentru şi
2 1 n 3 4
var S = n 4 n 1
=)
X N 0; 2 =) 4 = 3 4
1 n 3 2 4 2 2
var S 2 = n 3
4
n 1
4
= n 1 = n 1 =)
M IRC n 1
e S2 = var(S 2 ) = n :

101
Observ¼am c¼a S 2 nu este un estimator e…cient pentru în acest caz, dar este
M IRC
asimptotic e…cient în sensul c¼
a lim var(S 2 ) = 1:
n!1

8.1.3 Consistenţ¼
a
De…niţie. Un estimator b bazat pe o selecţie de m¼
arime n este estimator
consistent pentru dac¼
a
lim P b " = 0, 8" > 0:
n!1
Teorema 8.2. Fie b un estimator bazat pe o selecţie de m¼
arime n. Dac¼
a

lim E b = şi lim var b = 0;


n!1 n!1

atunci b este un estimator consistent pentru .


Demonstraţie. Fie " > 0. Din inegalitatea lui Cebîşev (vezi teorema 2.1),
obţinem

" 4var b
P b E b :
2 "2
Deoarece

b = b E b +E b b E b + E b ;

şi, din lim E b = rezult¼


a c¼
a 9n (") 2 N a.î.
n!1
"
E b ; 8n n (") ;
2
avem pentru n n (")
P b " P b E b + E b " =P b E b " E b
P b E b "
2 :
Obţinem, pentru n n (")

4var b
0 P b " ;
"2
de unde, trecând la limit¼
a rezult¼
a lim P b " = 0:
n!1

8.1.4 Su…cienţ¼
a
Fie X1 ; X2 ; :::; Xn o selecţie a populaţiei X a c¼ arei repartiţie depinde de para-
metrul necunoscut . Dac¼ a Y = h (X1 ; X2 ; :::; Xn ) este o statistic¼
a a. î., pentru
orice alt¼
a statistic¼a

Z = g (X1 ; X2 ; :::; Xn ) ;

102
repartiţia condiţionat¼a a lui Z, dat …ind c¼
a Y = y; nu depinde de , atunci Y
e numit¼ a statistic¼a su…cient¼a pentru . Dac¼ a în plus E (Y ) = , atunci Y se
numeşte estimator su…cient pentru .
Teorema 8.3. (criteriul de factorizare Fisher-Neymann). Fie

Y = h (X1 ; X2 ; :::; Xn )
o statistic¼
a bazat¼ a pe o selecţie de m¼arime n a populaţiei continue X. Atunci
Y este o statistic¼ a su…cient¼
a pentru dac¼ a şi numai dac¼
a densitatea comun¼
aa
lui X1 ; X2 ; :::; Xn poate … factorizat¼a sub forma
n
Y
fX (xj ; ) = g1 (h (x1 ; :::; xn ) ; ) g2 (x1 ; :::; xn ) :
j=1

Dac¼
a X este discret¼
a, condiţia este
n
Y
pX (xj ; ) = g1 (h (x1 ; :::; xn ) ; ) g2 (x1 ; :::; xn ) :
j=1

Su…cienţa a fost demonstrat¼


a de Fisher în 1922, iar necesitatea de Neymann
în 1935.

8.2 Metoda verosimilit¼


aţii maxime
Introdus¼a de Fischer în 1922 a devenit cea mai important¼ a metod¼
a general¼
a de
estimare din punct de vedere teoretic.
Fie f (x; ) densitatea populaţiei X, unde este unicul parametru care tre-
buie estimat dintr-un set de valori de selecţie x1 ; x2 ; :::; xn :
De…niţie. Funcţia de verosimilitate a unui set de n valori de selecţie din
populaţie este

L (x1 ; x2 ; :::; xn ; ) = f (x1 ; ) f (x2 ; ) :::f (xn ; ) :


În cazul în care X este discret¼
a cu masa p (x; ), avem

L (x1 ; x2 ; :::; xn ; ) = p (x1 ; ) p (x2 ; ) :::p (xn ; ) :


Când valorile de selecţie sunt date, funcţia de verosimilitate L devine o
funcţie de o singur¼ a variabil¼
a . Procedura de estimare pentru bazat¼ a pe
metoda verosimilit¼ aţii maxime const¼a în alegerea, ca o estimare pentru , a
valorii particulare care maximizeaz¼ a L. Maximul lui L ( ) apare in cele mai
multe cazuri la valoarea lui unde dL( d
)
= 0. De aici, într-un mare num¼ar de
b
cazuri, estimarea de verosimilitate maxim¼a (EVM) a lui bazat¼ a pe valorile
de selecţie x1 ; x2 ; :::; xn poate … determinat¼a din

dL x1 ; x2 ; :::; xn ; b
= 0:
db

103
Dup¼ a cum am v¼ azut mai sus, funcţia L este în forma unui produs de funcţii
de . Deoarece L este întotdeauna nenegativ¼ a şi îşi atinge maximul pentru
aceeaşi valoare a lui b ca ln L, iar ln L este în form¼ a de sum¼ a, este în general
mai uşor s¼a obţinem EVM b rezolvând

d ln L x1 ; x2 ; :::; xn ; b
= 0;
db
numit¼ a ecuaţia de verosimilitate.
Soluţia dorit¼a este una unde r¼ acina b este o funcţie de x1 ; x2 ; :::; xn ,
ad¼
dac¼
a astfel de r¼ ad¼acin¼
a exist¼
a. Când exist¼ a mai multe r¼ad¼acini ale ecuaţiei
de verosimilitate, EVM este r¼ ad¼acina corespunz¼
atoare maximului global al lui
L sau ln L.
În cazul a m parametri, funcţia de verosimilitate devine

L (x1 ; x2 ; :::; xn ; 1 ; :::; m ) ;

şi EVM pentru 1 ; :::; m sunt obţinuţi rezolvând sistemul de ecuaţii de


verosimilitate
@ ln L
= 0; j = 1; 2; :::; m:
@bj
Revenind la cazul unui singur parametru, s¼ a reprezent¼
am soluţia ecuaţiei de
verosimilitate prin
b = h (x1 ; x2 ; :::; xn ) :
Atunci estimatorul de verosimilitate maxim¼a (EVM) b pentru este
b = h (X1 ; X2 ; :::; Xn ) :
Proprietatea 1: consistenţa şi e…cienţa asimptotic¼a. Fie b EVM pentru
din densitatea f (x; ) pe baza unei selecţii de m¼ arime n. Atunci EVM b este
consistent şi asimptotic e…cient.
Un rezultat analog se obţine când populaţia X este discret¼ a. Mai mult,
repartiţia lui b tinde la o repartiţie normal¼
a când n ! 1.
Proprietatea 2: proprietatea de invarianţ¼a. Dac¼ a b este EVM pentru ,
atunci EVM pentru g ( ) este g b , unde g este presupus¼ a bijectiv¼
a şi derivabil¼
a
în raport cu .
P
De exemplu, dac¼ a c este EVM pentru deviaţia standard în o repartiţie,
P2
atunci EVM pentru dispersia 2 este c :
Exemplu. Pentru repartiţia N (m; 2 ), s¼a se determine EVM pentru 1 =m
şi 2 = 2 .
R. Avem h i
1 (x m)2
f x; m; 2 = 1 exp 2 2 , x 2 R:
(2 ) 2
Funcţia de verosimilitate este
Yn h i
1 (xj m)2
L x1 ; :::; xn ; m; 2 = 1 exp 2 2 =
(2 ) 2
j=1

104
2 3
n n
X 2
1
1 exp 4 2
1
2 (xj m) 5 =)
(2 ) 2
j=1
n
X
1 2 1 2 1
ln L = 2 2 (xj m) 2 n ln 2 n ln 2 :
j=1
2
Fie 1 = m, 2 = =)
n
X
1 2 1 1
ln L = 2 2 (xj 1) 2 n ln 2 2 n ln 2 ,
j=1
n
X
@ ln L 1
@ 1 = 2
(xj 1) ;
j=1
Xn
@ ln L 1 2 n
@ 2 = 2 22
(xj 1) 2 2:
j=1
Sistemul de verosimilitate
8 este
Xn Xn
>
> 1 b b 1
( @ ln L >
> xj 1 = 0 =) 1 = xj ;
=0 < b2 n
b
@ 1 j=1 j=1
@ ln L () Xn n
X
@b2
=0 >
> b1
2
b2 = 1 b1
2
> 12
> x j
n
= 0 =) xj :
: 2b2 2b2 n
j=1 j=1
EVM pentru m si 2 sunt
n
X
b1 = 1 Xj = X;
n
j=1
n
X 2
b2 = 1
Xj X = n 1 2
n n S :
j=1
X estimator e…cient pentru m =) b 1 estimator e…cient pentru m =) b 1
asimptotic e…cient pentru m. 9
E b1 = E X = m ! m =
teorem a 8.2 b
n!1
2 =) 1 estimator consistent pen-
var b 1 = var X = n ! 0 ;
n!1
tru m.
E b 2 = nn 1 E S 2 = nn 1 2 6= 2 =) b 2 este estimator deplasat pentru
2
: 9
E b2 ! 2 =
teorem a 8.2
n!1 =)
4
n 1 2 n 1 2 2 4
var b 2 = n var S 2
= n n 1 = 2 (n 1)
n2 ! 0 ;
n!1
b 2 estimator consistent pentru 2
: 9
E b2 ! 2 >
=
n!1
2 4 =) b 2 estimator asimp-
lim M IRC
= lim n
= lim n
=1 >
;
n!1 var ( b 2 ) n!1 2 4 (n 1)
n!1 n 1
n2
2
totic e…cient pentru :
Exemplu. Presupunem c¼ a populaţia X are o repartiţie uniform¼
a pe inter-
valul (0; ). Vrem s¼a determin¼
am EVM pentru .

105
Avem
1
, pentru 0 x
f (x; ) = (8.2)
0, altfel.
Funcţia de verosimilitate devine
n
1
L (x1 ; x2 ; :::; xn ; ) = ; 0 xi ; 8i: (8.3)

Gra…cul lui L este dat în …gura urm¼


atoare.

Observ¼am c¼
a toate valorile selecţiei xi trebuie s¼
a …e mai mici sau egale cu
, implicând c¼
a doar porţiunea curbei de la dreapta lui max (x1 ; x2 ; :::; xn ) este
aplicabil¼
a. De aici, maximul lui L apare în = max (x1 ; x2 ; :::; xn ), sau EVM
pentru este

b = max (x1 ; x2 ; :::; xn ) ; (8.4)


şi estimatorul de verosimilitate maxim¼
a pentru este

b = max (X1 ; X2 ; :::; Xn ) = X(n) : (8.5)


Observ¼ am c¼ a nu am obţinut relaţia (8.4) rezolvând ecuaţia de verosimilitate.
Ecuaţia de verosimilitate nu se aplic¼ a în acest caz deoarece maximul lui L apare
la frontier¼
a şi derivata nu este 0 acolo.

106
Studiem unele propriet¼ aţi ale lui b dat de relaţia (8.5). Densitatea lui b
este (vezi subsecţiunea 5.6)
n 1
f b (x) = nFX (x) fX (x) :
Cu fX (x) din relaţia (8.2) şi (din relaţia (5.2), pentru a = 0 şi b = )
8
< 0, pentru x < 0;
x
FX (x) = , pentru 0 x ;
:
1, pentru x > ;
avem
nxn 1
n , pentru 0 x ;
f b (x) =
0, altfel.

Media şi dispersia lui b sunt


Z 1 Z Z
nxn 1
xn+1
E b = xf b (x) dx = x n dx = n
n xn dx = n
n n+1 j0 =
1 0 0
n
n+1 ;
Z 1 2
Z 2
nxn 1
var b = x E b f b (x) dx = x n
n+1 n dx =
1 0
Z 2 2
n n n n xn+2 n xn+1 n xn
n x2 2 n+1 x+ n+1 xn 1
dx = n n+2 2 n+1 n+1 + n+1 n j0 =
h 0
2 2 2
i h i h i
2n n 2 1 n n 2
n n+2 (n+1)2
+ (n+1)2
=n n+2 (n+1)2
= (n+1)2 (n+2)
:
E b = n
n+1 6= =) b este deplasat.
9
E b ! =
teorem a 8.2 b
n!1h i =) estimator consistent.
var b = n
2
(n+1) (n+2)
2
! 0 ;
n!1

107
2
9 Estimarea parametrilor repartiţiei normale N (m; ):
estimatori punctuali, intervale de estimare (de
încredere)
9.1 Estimatori punctuali
În secţiunea precedent¼
a am considerat estimarea parametrilor repartiţiei nor-
male prin metoda verosimilit¼
aţii maxime.

9.1.1 Metoda momentelor


Metoda momentelor a fost propus¼ a de Pearson în 1894.
Consider¼ am o densitate f (x; 1 ; 2 ; :::; m ) pentru care parametrii j ; j =
1; 2; :::; m sunt de estimat pe baza unei selecţii X1 ; X2 ; :::; Xn a lui X. Momentele
teoretice ale populaţiei X sunt
Z 1
i = xi f (x; 1 ; :::; m ) dx; i = 1; 2; :::.
1

Ele sunt, în general, funcţii de parametrii necunoscuţi, adic¼


a

i = i ( 1; 2 ; :::; m ) :

Momentele de selecţie sunt


n
1X i
Mi = X ; i = 1; 2; :::.
n j=1 j

Metoda momentelor sugereaz¼ a c¼a, pentru a determina estimatorii b 1 ; :::; b m


din selecţie, egal¼
am un num¼ ar su…cient de momente de selecţie cu momentele
corespunz¼ arii lui b 1 ; :::; b m const¼
atoare ale populaţiei. Procedura determin¼ a în
urm¼atorii paşi:

Pasul 1: …e

i
b 1 ; :::; b m = Mi ; i = 1; 2; :::; m. (9.1)

Acestea sunt m ecuaţii de moment cu m necunoscute b 1 ; :::; b m .


a acest sistem de ecuaţii, determinând b 1 ; :::; b m , numiţi
Pasul 2: rezolv¼
estimatorii de moment pentru 1 ; :::; m .

Nu este necesar s¼a consider¼


am m ecuaţii de moment consecutive ca în relaţia
(9.1); orice m ecuaţii de moment convenabile care conduc la b 1 ; :::; b m sunt
su…ciente. Ecuaţiile momentelor de ordin mai mic sunt totuşi preferate deoarece
cer o mai mic¼a manipulare a datelor observate.

108
Exemplul 9.1. Alegem repartiţia normal¼ a ca model pentru randamentul
procentual discutat în capitolul 7, adic¼
a
" #
2
2 1 (x m)
f x; m; = p exp ; x 2 R:
2 2 2

Estim¼am parametrii 1 = m şi 2 = 2 pe baza celor 200 de valori ale selecţiei


date în tabel.
Urmând metoda momentelor, avem nevoie de 2 ecuaţii de moment, şi cele
mai convenabile sunt

1 = M1 = X;
şi

2 = M2 :
Avem

1 = 1:

De aici, prima dintre aceste ecuaţii de moment d¼


a

X n
b1 = X = 1 Xj : (9.2)
n j=1

Propriet¼
aţile acestui estimator au fost discutate în capitolul precedent. El este
nedeplasat şi are dispersie minim¼a între toţi estimatorii nedeplasaţi pentru m.
Ecuaţia momentului de ordinul 2 d¼ a

X n
b 21 + b 2 = M2 = 1 X 2;
n j=1 j
sau
n
X 2
b 2 = M2 M12 = 1
Xj2 X :
n
j=1
Pe de alt¼
a parte 0 1
Xn n
X n
X n
X
2 2 2
1
Xj X = 1
Xj2 2Xj X + X = 1 @ Xj2 2X Xj + nX A =
n n n
j=1 j=1 j=1 j=1
0 1
Xn n
X
2 2
1 @ Xj2 2XnX + nX A = 1
Xj2 X :
n n
j=1 j=1
Deci

X n
b2 = 1 Xj X
2
: (9.3)
n j=1

109
Acesta, dup¼ a cum am ar¼ atat, este un estimator deplasat pentru 2 .
Estim¼ arile b1 şi b2 ale lui 1 = m şi 2 = 2 pe baza valorilor selecţiei date
de tabel sunt, urmând relaţiile (9.2) şi (9.3)

200
b1 1 X
= xj ' 70;
200 j=1
200
b2 1 X b1
2
= xj ' 4;
200 j=1

unde xj ; j = 1; 2; :::; 200 sunt valorile de selecţie din tabelul din capitolul 7.

9.2 Intervale de încredere


Exemplul 9.2. 5 valori de selecţie 3; 2; 1; 5; 0; 5; 2; 1 sunt observate dintr-o
repartiţie normal¼
a având o medie necunoscut¼ a 2 = 9.
a m şi o dispersie cunoscut¼
EVM al lui m este media de selecţie X şi deci,
1
b =
m (3 + 2 + 1; 5 + 0; 5 + 2; 1) = 1; 82: (9.4)
5
Vrem s¼a determin¼am margini ale unui interval astfel încât, cu un nivel de
încredere speci…cat, media adevarat¼ a m s¼a …e în acest interval. X, …ind sum¼ a
de variabile aleatoare normale, este normal¼ a cu
E X = m;
2
var X = n = 59 :
Variabila aleatoare standardizat¼a
p
X E X 5 X m
U= q = (9.5)
var X 3

este N (0; 1) si are densitatea


1 x2
fU (x) = p e 2 : (9.6)
2
Presupunem c¼ a cerem ca P ( u1 < U < u1 ) = 0; 95: Determin¼
am u1 .
Z u1 Z u1 Z u1
0; 95 = P ( u1 < U < u1 ) = fU (x) dx = fU (x) dx fU (x) dx =
u1 1 1
(u1 ) ( u1 ) =
(u1 ) (1 (u1 )) = 2 (u1 ) 1 )
(u1 ) = 0;95+1
2 = 0; 975:
Din tabelul valorilor funcţiei rezult¼
a u1 = 1; 96 şi
Z 1;96
P ( 1; 96 < U < 1; 96) = fU (x) dx = 0; 95 (9.7)
1;96

110
p
5(X m) p
)P 1; 96 < 3 < 1; 96 = 0; 95 ) P 5; 88 < 5 X m < 5; 88 =
0; 95 )
P 2; 63 < X m < 2; 63 = 0; 95 ) P 2; 63 < m X < 2; 63 = 0; 95 )

P X 2; 63 < m < X + 2; 63 = 0; 95: (9.8)


Intervalul de 95% încredere pentru m este X 2; 63; X + 2; 63 : Folosind re-
laţia (9.4), intervalul de 95% încredere pentru m estimat pe baza observaţiilor
este (m b 2; 63; m b + 2; 63) = (1; 82 2; 63; 1; 82 + 2; 63) = ( 0; 81; 4; 45), adic¼
a

P ( 0; 81 < m < 4; 45) = 0; 95: (9.9)


Probabilitatea ca intervalul aleator X 2; 63; X + 2; 63 s¼ a conţin¼a ade-

arata medie m a repartiţiei este 0; 95, iar relaţia (9.9) d¼ a intervalul observat
bazat pe valorile date ale selecţiei.
De…niţie. Presupunem c¼ a o selecţie X1 ; X2 ; :::; Xn este extras¼a dintr-o
populaţie având densitatea f (x; ), …ind parametrul de estimat. Mai departe
presupunem c¼ a L1 (X1 ; :::; Xn ) şi L2 (X1 ; :::; Xn ) sunt dou¼
a statistici astfel încât
L1 < L2 cu probabilitatea 1. Intervalul (L1 ; L2 ) este numit un interval de
încredere [100 (1 )] % pentru dac¼ a L1 şi L2 pot … alese astfel încât

P (L1 < < L2 ) = 1 : (9.10)

Limitele L1 şi L2 sunt numite, respectiv, limitele inferioar¼a şi superioar¼a de


încredere pentru , şi 1 este numit coe…cientul de încredere. Valoarea lui
1 este luat¼
a în general 0; 9; 0; 95; 0; 99; 0; 995 sau 0; 999.

Interval de încredere pentru m în N m; 2 cu 2 cunoscut Intervalul


de încredere dat de relaţia (9.8) estimeaz¼a media unei populaţii normale cu
dispersie cunoscut¼
a. În termeni generali, procedura arat¼
a c¼
a întâi determin¼
am
un interval simetric în U pentru a obţine un coe…cient de încredere de 1 .
Notând cu u =2 valoarea lui U de la care aria de sub fU (u) este =2, adic¼ a
P U > u =2 = =2 (vezi …gura urm¼ atoare), avem

P u =2 <U <u =2 =1 : (9.11)

111
De aici, folosind transformarea dat¼
a de relaţia (9.5), avem rezultatul general

u =2 u =2
P X p <m<X+ p =1 : (9.12)
n n

Acest rezultat poate … de asemenea folosit pentru a estima medii ale populaţiilor
nenormale cu dispersii cunoscute dac¼ a m¼arimea selecţiei este su…cient de mare
pentru a justi…ca folosirea teoremei limit¼ a central¼a.
În acest caz, poziţia intervalului este o funcţie de X şi de aceea este o funcţie
de selecţie. În contrast, m¼ arimea intervalului,
p este o funcţie doar de m¼ arimea
selecţiei n, …ind invers proporţional¼a cu n.
Intervalul de încredere [100 (1 )] % pentru m dat de relaţia (9.12) d¼ a de
asemenea o estimare a acurateţei estimatorului punctual X pentru m. Dup¼ a
cum vedem din …gura urm¼ atoare, adev¼ arata medie m se a‡a¼ în intervalul indicat
cu [100 (1 )] % încredere.

112
Deoarece X este centrul intervalului, distanţa dintre X şi m poate … cel mult
egal¼
a cu jum¼
atate din m¼
arimea intervalului.
Teorema 9.1. Cu [100 (1 )] % încredere, eroarea folosirii estimatorului
X pentru m este mai mic¼a decât
u =2
p :
n

Exemplul 9.3. Fie populaţia X repartizat¼ a normal cu dispersia cunoscut¼ a


2
. Determinaţi m¼
arimea minim¼ a n a selecţiei de care e nevoie, astfel încât
eroarea estim¼
arii mediei m prin X s¼
a …e mai mic¼ a decât o cantitate speci…cat¼
a
" cu [100 (1 )] % încredere.

Folosind teorema 9.1, m¼


arimea minim¼
a a selecţiei trebuie s¼
a satisfac¼
a
u =2
"= p :
n

De aici, soluţia este


u =2 2
n= : (9.13)
"

Interval de încredere pentru m în N m; 2 cu 2 necunoscut Diferenţa


dintre aceast¼
a problem¼
a şi precedenta este c¼
a, deoarece nu este cunoscut, nu
mai putem folosi
1
U= X m p
n
ca variabila aleatoare pentru calculul limitelor de încredere privind media m.
Folosim dispersia de selecţie S 2 ca un estimator nedeplasat pentru 2 şi
consider¼
am variabila aleatoare
1
S
Y = X m p : (9.14)
n

Variabila aleatoare Y este acum o funcţie de variabilele aleatoare X şi S. De-


termin¼
am repartiţia lui Y:

113
Teorema 9.2. (Repartiţia t a lui Student) Consider¼
am o variabil¼
a
aleatoare T de…nit¼
a prin
1
V 2
T =U : (9.15)
n
Dac¼aU a 2 cu n grade de libertate, iar U şi V
N (0; 1), V este repartizat¼
sunt independente, atunci densitatea lui T are forma
n+1
n+1
2 t2 2

fT (t) = n p 1+ ; t 2 R: (9.16)
2 n n

Aceast¼ a repartiţie este cunoscut¼a ca repartiţia t a lui Student cu n grade de


libertate; este numit¼ a dup¼a W. S. Gosset, care a folosit pseudonimul "Student"
în publicaţiile sale de cercetare.
Dup¼ a cum se vede din relaţia (9.16), repartiţia t este simetric¼ a în jurul
originii. Când n creşte, ea tinde la o repartiţie normal¼ a standard.
Întorcându-ne la variabila aleatoare Y de…nit¼ a de relaţia (9.14), …e
1
U= X m p
n

şi
(n 1) S 2
V = 2
:

Atunci 1
V 2
Y =U ; (9.17)
n 1
unde U N (0; 1), iar V are repartiţia 2 cu (n 1) grade de libertate (vezi
teorema 7.1). Mai departe, se poate ar¼ a X şi S 2 sunt independente, deci
ata c¼
şi U şi V sunt independente. Din teorema 9.2, variabila aleatoare Y are astfel
o repartiţie t cu (n 1) grade de libertate.
Variabila aleatoare Y poate … folosit¼ a pentru a stabili intervale de încredere
pentru media m. Valoarea lui Y depinde de media necunoscut¼ a m, dar repartiţia
lui Y nu depinde de m.
Repartiţia t este tabelat¼
a în tabelul A.4 urm¼ator.

114
Fie tn; =2 valoarea astfel încât

P T > tn; =2 = ;
2
cu n reprezentând num¼
arul de grade de libertate (vezi …gura urm¼
atoare).

115
Avem
P tn 1; =2 < Y < tn 1; =2 =1 : (9.18)
Înlocuind Y din relaţia (9.14) în relaţia (9.18), un interval de încredere [100 (1 )] %
pentru media m este dat de
tn 1; =2 S tn 1; =2 S
P X p <m<X+ p =1 : (9.19)
n n

Deoarece X şi S sunt funcţii de selecţie, atât poziţia cât şi m¼


arimea intervalului
dat mai sus variaz¼a de la selecţie la selecţie.
Exemplul 9.4. Presupunem c¼ a nivelul anual al c¼aderilor de z¼
apad¼ a în zona
Bufallo este repartizat normal. Folosind înregistr¼ arile c¼
aderilor de z¼apad¼a din
1969-1970 pân¼ a în 1978-1979 din tabelul urm¼ ator, s¼a se determine un interval
de încredere 95% pentru media m.

116
În acest exemplu = 0:05, n = 10, media de selecţie observat¼
a este
1
x= (120:5 + 97 + ::: + 97:3) = 112:4;
10
şi dispersia de selecţie observat¼ a este
1 h i
2 2 2
s2 = (120:5 112:4) + (97 112:4) + ::: + (97:3 112:4) = 1414:3:
9
Din tabelul A.4 g¼
asim t9;0:025 = 2:262. Înlocuind aceste valori în relaţia (9.19),
obţinem
P (85:5 < m < 139:3) = 0:95:

Interval de încredere pentru 2 în N m; 2 Un estimator punctual nede-


plasat pentru dispersia 2 a populaţiei este S 2 . Pentru construirea intervalelor
de încredere pentru 2 , folosim variabila aleatoare
(n 1) S 2
D= 2
; (9.20)

care are repartiţie chi-p¼


atrat cu (n 1) grade de libertate (teorema 7.1). Notând
2
n; =2 valoarea astfel încât P D > 2n; =2 = =2 cu n grade de libertate,
putem scrie (vezi …gura urm¼ atoare)
2 2
P n 1;1 ( =2) <D< n 1; =2 =1 ; (9.21)

care d¼
a, înlocuind D din relaţia (9.20),
!
(n 1) S 2 2 (n 1) S 2
P 2 < < 2 =1 : (9.22)
n 1; =2 n 1;1 ( =2)

117
2
Tabelul A.5 d¼
a valori ale lui n; pentru diferite valori ale lui n şi .

118
a pentru construirea intervalelor de încredere pentru 2
Relaţia (9.22) este folosit¼
cu ambele margini …nite pentru o populaţie normal¼ a. Un interval de încredere
pentru 2 cu o singur¼ a margine …nit¼a este dat de (vezi …gura urm¼ atoare)
!
2 (n 1) S 2
P > 2 =1 : (9.23)
n 1;

119
2
Exemplul 9.5. Determin¼ am intervalele de încredere 95% pentru pentru
datele din exemplul 9.4.
Am v¼ azut în exemplul 9.4 c¼
a dispersia de selecţie observat¼
a este

s2 = 1414:3:

Din tabelul A.5 obţinem


2 2 2
9;0:975 = 2:7; 9;0:025 = 19:023; 9;0:05 = 16:919:

Relaţiile (9.22) şi (9.23) cu n = 10 şi = 0:05 conduc la


2
P 669:12 < < 4714:33 = 0:95

şi
2
P > 752:3 = 0:95:

120
10 Modele liniare. Estimarea parametrilor prin
metoda celor mai mici p¼ atrate. Elemente de
analiz¼
a discriminant¼
a liniar¼
a
10.1 Regresie liniar¼
a
Presupunem c¼ a variabila aleatoare Y este o funcţie de o variabil¼
a independent¼
a
şi relaţia lor este liniar¼
a, adic¼
a

E (Y ) = + x: (10.1)
Constantele şi sunt necunoscute şi trebuie estimate dintr-o selecţie de
valori ale lui Y cu valorile asociate lor ale lui x. Într-un singur experiment, x
va avea o anumit¼ a valoare xi şi media lui Y va lua valoarea

E (Yi ) = + xi : (10.2)
De…nim variabila aleatoare E prin

E=Y ( + x) : (10.3)
Modelul de regresie liniar¼a simpl¼a este

Y = + x + E; (10.4)
unde E are media 0 şi dispersia 2 , care coincide cu dispersia lui Y . Valoarea
lui 2 este necunoscut¼ a în general, dar este presupus¼ a a … constant¼ a şi nu o
funcţie de x.
Parametrii necunoscuţi şi sunt numiţi coe…cienţi de regresie, iar variabila
aleatoare E reprezint¼
a deviaţia lui Y în jurul mediei.

10.1.1 Estimarea prin metoda celor mai mici p¼


atrate
Estim¼arile b şi b prin metoda celor mai mici p¼ atrate pentru parametrii de
regresie şi sunt alese astfel încât suma p¼ atratelor diferenţelor dintre valorile
de selecţie observate yi şi b + b xi , valoarea medie estimat¼ a a lui Y , este minim¼a.
Fie

ei = yi b + b xi ; i = 1; n: (10.5)

arile b şi b sunt g¼


Estim¼ asite minimizând
n
X n h
X i2
Q= e2i = yi b + b xi : (10.6)
i=1 i=1

Perechile valorilor de selecţie sunt (x1 ; y1 ) ; :::; (xn ; yn ), iar ei , i = 1; 2; :::; n se


numesc reziduuri. Figura urm¼ atoare d¼ a o prezentare gra…c¼ a a acestei proceduri.

121
Vedem c¼ a reziduurile sunt distanţele verticale dintre yi , valorile observate ale
lui Y , şi estimarea b + b x a adev¼ aratei drepte de regresie + x.
Teorema 10.1. Fie modelul de regresie liniar¼ a simpl¼
a dat de relaţia (10.4).
Fie (x1 ; y1 ) ; (x2 ; y2 ) ; :::; (xn ; yn ) valorile de selecţie observate ale lui Y cu valorile
asociate ale lui x. Presupunem c¼ a cel puţin 2 dintre x1 ; :::; xn sunt distincte.
Atunci estim¼ arile prin metoda celor mai mici p¼ atrate ale lui şi sunt

b=y b x; (10.7)

n
X
(xi x) (yi y)
b= i=1
; (10.8)
n
X 2
(xi x)
i=1

unde

122
n
1X
x= xi
n i=1
şi
n
1X
y= yi :
n i=1
Demonstraţie. Fie
Xn h i2
Q b; b = yi b + b xi =)
i=1
n
X h i
@Q
@b = 2 yi b + b xi ;
i=1
Xn h i
@Q
= 2xi yi b + b xi ;
@b
i=1
Xn
@2Q
@ b2
= 2 ( 1) = 2n > 0;
i=1
Xn n
X
@2Q
= 2xi ( 1) = 2 xi = 2nx;
@ b@ b
i=1 i=1
n
X Xn
@2Q
2 = 2xi ( xi ) = 2 x2i ;
@b
i=1 i=1
@2Q @2Q n
! n
!
X X
@ b2 @ b@ b 2 2 2
D= @2Q @2Q = 4n x2i nx = 4n x2i 2nx + nx =
@ b@ b
2
@b i=1
!
i=1
n
X n
X Xn n
X
1
4n x2i 2nx n xi + x2 = 4n x2i 2xxi + x2 =
i=1 i=1 i=1 i=1
n
X @2 Q
2 @ b2
>0
4n (xi x) > 0 =)
i=1 0 2 2
1
@ Q @ Q
@ b2 @ b@ b
HQ = @ @2Q @2Q
A pozitiv de…nit¼ a =) b şi b
a =) Q (strict) convex¼
@ b@ b
2
@b
care minimizeaz¼
a pe Q sunt soluţia sistemului
8 Xn Xn
( >
> b
@Q >
< nb + xi = yi
@b = 0 i=1 i=1
@Q () Xn X n X n ()
=0 >
>
@b >
: b xi + b x2i = xi yi
i=1 i=1 i=1
nb + nx b = ny (10.9)
n
X n
X
nxb + b x2i = xi yi : (10.10)
i=1 i=1

123
Ecuaţiile din ultimul sistem se numesc ecuaţii normale. Înmulţind (10.9) cu
x şi sc¼
azând-o din (10.10) )
Xn Xn X n Xn Xn

xi yi nxy xi yi x yi y xi + xy
b = i=1n vezi calculul lui D i=1 i=1 i=1 i=1
X = Xn =
2
x2i nx2 (xi x)
i=1 i=1
Xn X n

[yi (xi x) y(xi x)] (xi x)(yi y)


i=1 i=1
X
n = X
n :
(xi x)2 (xi x)2
i=1 i=1
Din (10.9) )
b = y xb:
Restabilim rezultalele de mai sus folosind o notaţie matriceal¼ a care uşureaz¼ a
calculele şi permite generaliz¼
ari când consider¼ am modele mai generale de regre-
sie.
În termeni de valori de selecţie observate (x1 ; y1 ) ; (x2 ; y2 ) ; :::; (xn ; yn ), avem
sistemul de ecuaţii de regresie observate

yi = + xi + ei ; i = 1; 2; :::; n: (10.11)

Fie 0 1 0 1 0 1
1 x1 y1 e1
B 1 x2 C B y2 C B e2 C
B C B C B C
C=B .. .. C; y=B .. C; e=B .. C;
@ . . A @ . A @ . A
1 xn yn en
şi
= :

Ecuaţiile (10.11) se scriu echivalent

y = C + e: (10.12)

Suma p¼
atratelor reziduurilor dat¼
a de relaţia (10.6) este acum
T
Q ( ) = eT e = (y C ) (y C ): (10.13)

atrate a lui , b, este g¼


Estimarea prin metoda celor mai mici p¼ asit¼
a mini-
mizând Q. Deoarece
rQ ( ) = 2C T (y C )
şi
HQ ( ) = 2C T C
a, soluţia b este obţinut¼
este pozitiv de…nit¼ a din

rQ b = 0;

124
deci din ecuaţia normal¼
a
CT y C b = 0; (10.14)
sau
C T C b = C T y;
care d¼
a
1
b = CT C C T y: (10.15)
În cele de mai sus, matricea HQ ( ) este pozitiv de…nit¼ a şi inversa matricei C T C
exist¼
a dac¼a sunt cel puţin 2 valori distincte xi în selecţie.
Veri…c¼am c¼
a relaţia (10.15) este identic¼
a cu relaţiile (10.7) şi (10.8) observând

a 0 1
1 x1 0 1
B 1 x2 C n nx
1 1 ::: 1 B C B n C
CT C = B .. .
. C = @ nx X x2 A ;
x1 x2 ::: xn @ . . A i
i=1
1 xn
0 n
1
X
1 1 x2i nx C
!B
1
CT C = CT C = n @ A;
det C T C X i=1
n x2i nx2 nx n
i=1
0 1
y1 0 1
B C ny
1 1 ::: 1 B y2 C B X
n C
CT y = B C=@
x1 x2 ::: xn @
..
. A xi yi A
i=1
yn
şi
0 X
n X
n 1
y x2i x xi yi
B C
B i=1 i=1 C
0 10 B 1 X
n C
n
X ny B x2i nx2
C
x2i nx C B X B C
b = CT C 1 T 1 B n C B C
C y= 0
X
n 1 @ A@ A =B X
i=1
n C=
i=1 xi yi B C
n@ x2i nx2 A nx n B xi yi nxy C
i=1 B C
i=1 B i=1 C
@ X n
A
x2i nx2
i=1
0 X
n 1
xi yi nxy
B C 0 1
B y i=1
x C y bx
B X n C
B 2 nx2 C B X n C
B xi C B C
B C B (xi x)(yi y) C
B X n
i=1
C = B i=1 C:
B C B Xn C
B (x x)(yi y) C @ A
B i=1 i C (xi x)2
B C
@ Xn
A i=1
(xi x)2
i=1

125
Exemplul 10.1. Este de aşteptat ca randamentul procentual mediu, Y ,
dintr-un proces chimic s¼ a …e legat liniar de temperatura procesului, x, în C.
Determinaţi prin metoda celor mai mici p¼ atrate dreapta de regresie pentru E (Y )
pe baza a 10 observaţii date în tabelul

i 1 2 3 4 5 6 7 8 9 10
x ( C) 45 50 55 60 65 70 75 80 85 90
y 43 45 48 51 55 57 59 63 66 68
R. Pentru a folosi relaţiile (10.7) şi (10.8) avem nevoie de urm¼
atoarele can-
tit¼
aţi
n
1X 1 5 135
x= xi = (45 + 50 + ::: + 90) = = 67; 5;
n i=1 10 10
n
1X 1
y= yi = (43 + 45 + ::: + 68) = 55; 5;
n i=1 10
n
X 2
(xi x) = 2062; 5;
i=1
n
X
(xi x) (yi y) = 1182; 5:
i=1

Înlocuirea acestor valori în relaţiile (10.7) şi (10.8) d¼


a
n
X
(xi x) (yi y)
b= i=1 1182; 5
n = ' 0; 57;
X 2
2062; 5
(xi x)
i=1

b=y b x ' 55; 5 0; 57 67; 5 ' 17; 03:


Deci dreapta de regresie estimat¼ a are ecuaţia y = 17; 03 + 0; 57x şi este
ar¼
atat¼
a împreun¼a cu valorile selecţiei observate în …gura urm¼atoare.

126
Relaţiile de regresie sunt valabile doar pentru intervalul valorilor x reprezen-
tate de date. Astfel, dreapta de regresie estimat¼ a în exemplul 10.1 e valabil¼ a
doar pentru temperaturi între 45 C şi 90 C. Extrapolarea rezultatului în afara
acestui interval poate conduce la greşeli şi nu este valabil¼ a în general.
Analiza regresiei liniare ca cea f¼ acut¼
a în exemplul 10.1 este bazat¼ a pe pre-
supunerea c¼ a adev¼arata relaţie între E (Y ) şi x este liniar¼
a. Dac¼a relaţia este
neliniar¼a sau inexistent¼a, regresia liniar¼
a produce rezultate f¼ ar¼
a sens, chiar dac¼a
o linie dreapt¼ a pare s¼
a dea o bun¼ a potrivire a datelor.

10.1.2 Propriet¼
aţile estimatorilor prin metoda celor mai mici p¼
a-
trate
Fie A b şi B,
b estimatorii prin metoda celor mai mici p¼
atrate pentru , respectiv
şi …e !
Ab
b = : (10.16)
Bb
Din relaţia (10.15) avem
1
b = CT C C T Y; (10.17)
unde 0 1
Y1
B C
Y = @ ... A ; (10.18)
Yn
şi Yj ; j = 1; 2; :::; n, sunt independente şi identic repartizate în concordanţ¼
a cu
relaţia (10.4). Astfel, dac¼ a scriem
Y =C + E; (10.19)

127
2
atunci E este un vector aleator cu media 0 şi matricea de covarianţ¼
a = I,
I …ind matricea unitate de ordinul n.
Din relaţiile (10.17) şi (10.19), avem
1 1 1
E b = CT C C T E (Y) = C T C C T [C +E (E)] = C T C CT C =
(10.20)
De aici, estimatorii A b şi B
b pentru , respectiv , sunt nedeplasaţi.
Matricea de covarianţ¼ a cu b este dat¼
a asociat¼ a de, dup¼a cum rezult¼
a din
T 1
relaţia (10.17) şi lema 3.1, deoarece C C este simetric¼
a,
T 1 1
cov b =E b b = CT C C T cov (Y) C C T C :

2
Dar cov (Y) = I; astfel, avem
1 1 1
cov b = 2
CT C CT C CT C = 2
CT C : (10.21)

b şi
Elementele de pe diagonala matricei din relaţia (10.21) dau dispersiile lui A
b În termeni de elementele lui C, putem scrie
B.
n
X
2
x2i
b =
var A i=1
; (10.22)
n
X 2
n (xi x)
i=1

2
b =
var B (10.23)
n
X 2
(xi x)
i=1

Se vede c¼a aceste dispersii descresc când m¼ arimea selecţiei n creşte. Astfel,
rezult¼a din capitolul 8 c¼a aceşti estimatori sunt consistenţi. Pentru un n …xat,
dispersia lui B b poate … redus¼ a selectând xi -urile astfel încât numitorul relaţiei
(10.23) este maximizat; asta poate … f¼ acut împr¼aştiind xi -urile cât mai departe
posibil. În exemplul 10.1, presupunând c¼ a suntem liberi s¼ a alegem valorile lui
xi , calitatea lui b este îmbun¼ at¼aţit¼
a dac¼
a jum¼atate din citirile x sunt luate la
o extrem¼ a a intervalului temperaturii şi cealalt¼a jum¼ atate la cealalt¼ a extrem¼a.
Strategia de selecţie pentru minimizarea var A b pentru un n …xat este de a
face x pe cât posibil cât mai aproape de 0.
Sunt dispersiile date de relaţiile (10.22) şi (10.23) dispersii minime între
dispersiile estimatorilor nedeplasaţi pentru şi ? Un r¼ aspuns la aceast¼ a în-
trebare poate … a‡at comparând rezultatele date de relaţiile (10.22) şi (10.23)
cu marginile inferioare Rao-Cramer de…nite în secţiunea 8.1.2. Pentru a evalua
aceste margini, repartiţia lui Y trebuie s¼ a …e cunoscut¼ a. Totuşi, f¼
ar¼a a cunoaşte
repartiţia lui Y , se poate ar¼ata c¼ a tehnica celor mai mici p¼ atrate conduce la

128
estimatori liniari nedeplasaţi de dispersie minim¼a, adic¼ a, dintre toţi estimatorii
nedeplasaţi care sunt liniari în Y, estimatorii prin metoda celor mai mici p¼ atrate
au dispersie minim¼ a.
Teorema 10.2. Fie variabila aleatoare Y de…nit¼ a în relaţia (10.4). Fiind
dat¼a o selecţie (x1 ; Y1 ) ; (x2 ; Y2 ) ; :::; (xn ; Yn ) a lui Y cu valorile x asociate, esti-
matorii prin metoda celor mai mici p¼ atrate A b şi B
b daţi de relaţia (10.17) sunt
estimatori liniari nedeplasaţi de dispersie minim¼a pentru , respectiv .
Demonstraţie. Consider¼ am un estimator liniar nedeplasat de forma
h 1 T
i
= CT C C + G Y: (10.24)

Vrem s¼
a ar¼
at¼
am c¼ a dac¼a are dispersie minim¼a, atunci G = 0.
Datorit¼
a relaţiei (10.19), cerinţa de nedeplasare conduce la

GC = 0: (10.25)

Consider¼
am acum matricea de covarianţ¼
a
T
cov ( )=E ( )( ) : (10.26)

Folosind relaţiile (10.19), (10.24), (10.25) şi lema 3.1, avem


h 1
i
cov ( ) = 2 C T C + GGT :

Pentru a minimiza dispersiile asociate cu componentele lui , trebuie s¼


a
minimiz¼ am …ecare element diagonal al lui GGT . Deoarece elementul diagonal
ii al lui GGT este dat de
X n
GGT ii = 2
gij ;
j=1

unde gij este elementul ij al lui G, trebuie s¼


a avem

gij = 0; 8i; j

şi obţinem
G = 0: (10.27)

Teorema de mai sus este un caz special al teoremei Gauss-Markov.


Alt¼a comparaţie interesant¼ a este cea dintre estimatorii prin metoda celor
mai mici p¼ atrate pentru şi şi estimatorii lor de verosimilitate maxim¼ a cu o
repartiţie cunoscut¼a pentru variabila aleatoare Y . Se poate ar¼
ata c¼
a estimatorii
de verosimilitate maxim¼ a pentru şi sunt identici cu cei prin metoda celor
mai mici p¼ atrate sub ipoteza suplimentar¼a c¼
a Y este repartizat¼a normal.

129
11 Regresie liniar¼
a simpl¼
a. Estimarea parametrilor
prin metoda celor mai mici p¼ atrate. Inter-
vale de încredere pentru parametrii de re-
gresie
2
11.1 Estimator nedeplasat pentru
Metoda celor mai mici p¼ atrate nu conduce la un estimator pentru dispersia 2
a lui Y , care este în general de asemenea o cantitate necunoscut¼a în modelele
de regresie liniar¼ a pentru un estimator pentru 2 este
a. O alegere intuitiv¼
n h
X i2
c2 = k Yi b + Bx
A b i ; (11.1)
i=1

unde coe…cientul k este ales astfel încât c2 este nedeplasat. Pentru a calcula
media lui c2 , observ¼
am c¼
a (vezi relaţia (10.7))

Yi b
A b i = Yi
Bx Y b
Bx b i = Yi
Bx Y b (xi
B x) : (11.2)

De aici rezult¼
a
n
X 2 n
X n
X
2
Yi b
A b i
Bx = Yi Y b2
B (xi x) ;
2
(11.3)
i=1 i=1 i=1

deoarece (vezi relaţia (10.8))


n
X n
X
(xi x) Yi b
Y =B (xi x) :
2
(11.4)
i=1 i=1

Se poate ar¼
ata c¼
a
n n
!
X 2 X
E c2 = kE b2 2 2
Yi Y B (xi x) = k (n 2) :
i=1 i=1

De aici, c2 este nedeplasat pentru k = 1


n 2, …ind dat de
n h
X i2
c2 = 1 b + Bx
b i
Yi A ; (11.5)
n 2 i=1

sau, datorit¼
a relaţiei (11.3),
" n n
#
X X
c2 = 1 Yi Y
2
b2
B (xi x)
2
: (11.6)
n 2 i=1 i=1

130
Exemplul 11.1. Pentru datele din exemplul 10.1, s¼
a se determine o estimare
a pentru 2 .
nedeplasat¼
Am obţinut în exemplul 10.1
n
X 2
(xi x) = 2062; 5;
i=1

b = 0; 57:

În plus, obţinem
n
X 2
(yi y) = 680; 5:
i=1

Relaţia (11.6) d¼
a

c2 = 1 680; 5 0; 572 2062; 5 = 1; 3:


8
Exemplul 11.2. Se face un experiment pe elasticitatea ţesutului pl¼ amânului
ca o funcţie de propriet¼ aţile de extindere ale pl¼
amânului şi m¼
asur¼atorile din
tabelul urm¼ ator sunt cele ale modulului lui Young al ţesutului (Y ), în g=cm2 ,
la diferite valori ale extinderii pl¼amânului în termeni de tensiune (x), în g=cm2 .

Presupunând c¼ a E (Y ) este legat¼


a liniar de x şi c¼ a 2Y = 2 (o constant¼ a),
determinaţi estim¼ arile prin metoda celor mai mici p¼ atrate pentru coe…cienţii de
regresie şi o estimare nedeplasat¼a pentru 2 .
În acest caz avem n = 14. Cantit¼ aţile care ne intereseaz¼
a sunt
n
1X 1
x= xi = (2 + 2; 5 + ::: + 20) = 11; 11;
n i=1 14

n
1X 1
y= yi = (9; 1 + 19; 2 + ::: + 130; 8) = 57; 59;
n i=1 14
n
X 2
(xi x) = 546; 09;
i=1
n
X 2
(yi y) = 17179; 54;
i=1

131
n
X
(xi x) (yi y) = 2862; 12:
i=1

Înlocuirea acestor valori în relaţiile (10.8), (10.7) şi (11.6) d¼


a

b = 2862; 12 = 5; 24;
546; 09

b = 57; 59 5; 24 11; 11 = 0; 63
c2 = 1 17179; 54 5; 242 546; 09 = 182; 1:
12
Dreapta de regresie estimat¼
a împreun¼
a cu datele sunt ar¼
atate în …gura ur-

atoare.

p
Deviaţia standard estimat¼a este b = 182; 1 = 13; 49g=cm2 şi -banda este de
asemenea ar¼ at¼
a în …gur¼
a.

11.2 Intervale de încredere pentru coe…cienţii de regresie


Presupunem c¼ aY N + x; 2 . Deoarece estimatorii A; b Bb şi A
b + Bx
b sunt
funcţii liniare de selecţia Y , ei sunt de asemenea variabile aleatoare normale.

132
Când m¼ b B
arimea selecţiei n este mare, A; b şi A
b + Bx
b au o repartiţie normal¼
a pe
baza teoremei limit¼a central¼ a, indiferent de repartiţia lui Y .
Urm¼ am calea din secţiunea 9.2 pentru a stabili limite de încredere. Se pot
veri…ca urm¼ atoarele rezultate:
i) Fie c2 estimatorul nedeplasat pentru 2 de…nit de relaţia (11.6) şi …e

(n 2) c2
D= 2
: (11.7)

2
Rezult¼a din secţiunea 9.2 c¼
a D este o variabil¼
a aleatoare repartizat¼
a cu n 2
grade de libertate.
ii) Consider¼am variabilele aleatoare

b
A
v (11.8)
u
u c2 X 2
n

u xi
u
u n i=1
u X
tn (x x)2 i
i=1

şi
b
B
v ; (11.9)
u
u n c2
uX
t (x x)2
i
i=1

unde, dup¼ a cum se observ¼ a din relaţiile (10.20), (10.22) şi (10.23), şi sunt
b respectiv B,
mediile lui A, b iar numitorii sunt deviaţiile standard ale lui A, b
b cu
respectiv B, 2
estimat de c2 . Din secţiunea 9.2 rezult¼ a c¼
a …ecare dintre
aceste variabile aleatoare are o repartiţie t cu n 2 grade de libertate.
iii) Estimatorul E\ (Y ) pentru media lui Y este repartizat normal cu media
+ x şi dispersia
X n
1
n x2i +x2 2xx
\
var E b + Bx
(Y ) = var A b = var A b +2xcov A;
b +x2 var B b Bb = 2 i=1
=
X n

(xi x)2
2 3 i=1

6 7
2 61 (x x)2 7
6n + X
n 7 : (11.10)
4 2
5
(xi x)
i=1

133
De aici, urmând argumentarea din secţiunea 9.2, variabila aleatoare
\
E (Y ) ( + x)
v 2 3 (11.11)
u
u
u 6 7
u 6
u c2 6 1 + n(x x)2 7 7
u 4n X 5
t (x x)2 i
i=1

este de asemenea t-repartizat¼ a cu n 2 grade de libertate.


Pe baza rezultatelor prezentate mai sus putem stabili limite de încredere
pentru toţi parametrii de interes. Rezultatele de mai jos sunt o consecinţ¼ a
direct¼a a celor din secţiunea 9.2.
1) Un interval de [100 (1 )] % încredere pentru este determinat de (vezi
relaţia (9.19)) v
u n
u c2 X
u x2i
u
b tn 2; =2 u u i=1
L1;2 = A : (11.12)
u X n
tn (x x)
2
i
i=1

2) Un interval de [100 (1 )] % încredere pentru este determinat de (vezi


relaţia (9.19)) v
u c2
b u
L1;2 = B tn 2; =2 u
uXn : (11.13)
t (xi x)
2

i=1
3) Un interval de [100 (1 )] % încredere pentru E (Y ) = + x este de-
terminat de (vezi relaţia (9.19))
v 2 3
u
u
u 6 7
u 6 2 7
\ u c2 6 1 (x x) 7
L1;2 = E (Y ) tn 2; =2 u 6 + n 7 (11.14)
u 4n X 5
t (xi x)
2

i=1
2
4) Un interval de [100 (1 )] % încredere pentru cu ambele margini …nite
este determinat de (vezi relaţia (9.22))
(n 2) c2
L1 = 2 ;
n 2; =2
(n 2) c2
(11.15)
L2 = 2 :
n 2;1 =2

2
Un interval de [100 (1 )] % încredere pentru cu o margine …nit¼
a este de-
terminat de (vezi relaţia (9.23))
(n 2) c2
L1 = 2 : (11.16)
n 1;

134
În …ecare caz, atât poziţia cât şi m¼
arimea intervalului variaz¼ a de la selecţie
la selecţie. În plus, intervalul de încredere pentru + x este o funcţie de x.
Dac¼ a se reprezint¼a valorile observate ale lui L1 şi L2 , ele formeaz¼
a o band¼a de
încredere în jurul dreptei de regresie estimate, dup¼ a cum este ar¼atat în …gura
urm¼ atoare.

Relaţia (11.14) arat¼


a c¼
a cea mai îngust¼a l¼
aţime a bandei apare în x = x. Banda
devine mai larg¼ a când x de mişc¼a din x în orice direcţie.
Exemplul 11.3. În exemplul 11.2, presupunând c¼ a Y este repartizat¼
a nor-
mal, s¼a se determine o band¼ a de 95% încredere pentru + x.
Relaţia (11.14) d¼a limitele de încredere dorite, cu n = 14; = 0; 05 şi

\
E (Y ) = b + b x = 0; 63 + 5; 24x;

tn 2; =2 = t12;0:025 = 2; 179, din tabelul A.4,


x = 11; 11;
n
X 2
(xi x) = 546; 09;
i=1

135
c2 = 182; 1:

Limitele de încredere observate sunt date de


v " #
u
u 1 (x 11; 11)
2
t
l1;2 = 0; 63 + 5; 24x 2; 179 182; 1 + :
14 546; 09

Rezultatul este ar¼


atat gra…c în …gura urm¼
atoare.

136
12 Regresie liniar¼
a multipl¼
a. Alte modele de
regresie
12.1 Regresie liniar¼
a multipl¼
a
În regresia liniar¼
a multipl¼
a, modelul ia forma

E (Y ) = 0 + 1 x1 + 2 x2 + ::: + m xm : (12.1)

Din nou, presupunem c¼ a dispersia lui Y este 2 şi este independent¼ a de x1 ; x2 ; :::; xm .
Ca la regresia liniar¼ a simpl¼ a suntem interesaţi s¼ a estim¼ am cei m + 1 coe…-
cienţi de regresie 0 ; 1 ; :::; m pe baza unei selecţii a valorilor lui Y cu val-
orile lor asociate ale lui (x1 ; x2 ; :::; xm ). O selecţie de m¼ arime n în acest caz
ia forma (x11 ; x21 ; :::; xm1 ; Y1 ) ; (x12 ; x22 ; :::; xm2 ; Y2 ) ; :::; (x1n ; x2n ; :::; xmn ; Yn ).
Pentru …ecare set de valori xki ; k = 1; 2; :::; m, Yi este o observaţie indepen-
dent¼a din populaţia Y de…nit¼ a prin

Y = 0 + 1 x1 + 2 x2 + ::: + m xm + E: (12.2)
2
Ca mai înainte, E este eroarea aleatoare, cu media 0 şi dispersia .

12.1.1 Estimarea prin metoda celor mai mici p¼


atrate
Fiind date seturile de valori de selecţie observate (x1i ; x2i ; :::; xmi ; yi ) ; i = 1; 2; :::; n,
sistemul de ecuaţii de regresie observate este

yi = 0 + 1 x1i + 2 x2i + ::: + m xmi + ei ; i = 1; 2; :::; n: (12.3)

Dac¼
a not¼
am
0 1 0 1 0 1
1 x11 x21 ::: xm1 y1 e1
B 1 x12 x22 ::: xm2 C B y2 C B e2 C
B C B C B C
C=B .. .. .. .. .. C; y=B .. C; e=B .. C
@ . . . . . A @ . A @ . A
1 x1n x2n ::: xmn yn en

şi 0 1
0
B C
B 1 C
=B .. C;
@ . A
m

relaţia (12.3) poate … scris¼


a
y = C + e: (12.4)
Comparând relaţia (12.4) cu relaţia (10.12) din regresia liniar¼
a simpl¼
a, ecuaţi-
ile de regresie observate în ambele cazuri sunt identice cu excepţia faptului c¼ a
C este acum o matrice n (m + 1) şi este un vector (m + 1)-dimensional.
P¼astrând aceast¼a diferenţ¼
a de dimensiune în minte, rezultatele obţinute în cazul

137
regresiei liniare simple bazate pe relaţia (10.12) sunt din nou valabile în cazul
regresiei liniare multiple. Astfel, f¼
ar¼
a alt¼a demonstraţie, avem pentru soluţia
estim¼
arii prin metoda celor mai mici p¼ atrate b a lui (vezi relaţia (10.15))
1
b = CT C C T y: (12.5)
1
Existenţa matricei C T C cere ca s¼a existe cel puţin (m + 1) seturi distincte
de valori (x1i ; x2i ; :::; xmi ) în selecţie. C T C este o matrice (m + 1) (m + 1)
simetric¼
a.
Exemplul 12.1. Consumul lunar mediu de putere electric¼ a (Y ) într-o an-
umit¼a fabric¼
a este considerat a … liniar dependent de temperatura mediului
ambiant (x1 , în F ) şi num¼ arul de zile lucr¼ atoare din lun¼ a (x2 ). Consider¼am
datele lunare pe un an din tabelul urm¼ ator.

Determinaţi estim¼ arile prin metoda celor mai mici p¼


atrate ai coe…cienţilor de
regresie liniar¼
a asociaţi.
În acest caz, C este o matrice 12 3 şi
0 1
12 626 290
C T C = @ 626 36776 15336 A ;
290 15336 7028
0 1
2974
C T y = @ 159011 A:
72166
Astfel avem 0 1
33; 84
1
b = CT C CT y = @ 0; 39 A ;
10; 80
sau
b = 33; 84; b = 0; 39; b = 10; 8:
0 1 2

Ecuaţia de regresie estimat¼


a bazat¼
a pe date este astfel

[
E (y) = b 0 + b 1 x1 + b 2 x2 = 33; 84 + 0; 39x1 + 10; 8x2 :

138
Deoarece relaţia (12.4) coincide cu cea din cazul regresiei liniare simple,
multe din rezultatele obţinute acolo privind propriet¼ aţile estimatorilor prin
metoda celor mai mici p¼ atrate pot … duplicate aici ţinând cont doar de noile
de…niţii ale matricei C şi vectorului .
Scriem estimatorul b pentru în forma
1
b = CT C C T Y: (12.6)

Observ¼
am c¼
a
1
E b = CT C C T E (Y) = : (12.7)

De aici, estimatorul prin metoda celor mai mici p¼ atrate b este din nou nede-
plasat. De asemenea, din relaţia (10.21) rezult¼
a c¼
a matricea de covarianţ¼
a pentru
b este
1
cov b = 2 C T C : (12.8)

Intervale de încredere pentru parametrii de regresie în acest caz pot … de


asemenea stabilite urmând proceduri similare celor din cazul regresiei liniare
simple.

12.2 Alte modele de regresie


În ştiinţ¼
a şi inginerie e adesea necesar s¼
a se considere modele de regresie care
sunt neliniare în variabilele independente. Exemple de aceste clase de modele
sunt
Y = 0 + 1 x + 2 x2 + E; (12.9)
Y = 0 exp ( 1x + E) ; (12.10)
2 2
Y = 0 + 1 x1 + 2 x2 + 11 x1 + 22 x2 + 12 x1 x2 + E; (12.11)
x
Y = 0 1 + E: (12.12)
Modele polinomiale ca relaţiile (12.9) sau (12.11) sunt înc¼ a modele de regresie
liniar¼
a, deoarece sunt liniare în parametrii necunoscuţi 0 ; 1 ; 2 ; ::: De aceea,
parametrii pot … estimaţi folosind tehnici de regresie liniar¼ a multipl¼ a. Într-
adev¼ar, punând x1 = x şi x2 = x2 în relaţia (12.9), aceasta ia forma unui model
de regresie liniar¼
a multipl¼
a cu 2 variabile independente şi poate … analizat ca
atare. O echivalenţ¼
a similar¼
a poate … stabilit¼ a între relaţia (12.11) şi un model
de regresie liniar¼
a multipl¼
a cu 5 variabile independente.
Consider¼am modelul exponenţial dat de relaţia (12.10). Logaritmând ambii
membri, avem
ln Y = ln 0 + 1 x + E: (12.13)
În termeni de variabila aleatoare ln Y , relaţia (12.13) reprezint¼ a o ecuaţie de
regresie liniar¼
a cu coe…cienţii de regresie ln 0 şi 1 . Tehnici de regresie liniar¼
a
se aplic¼
a din nou în acest caz. Relaţia (12.12) nu poate … pus¼ a convenabil într-o
form¼a de regresie liniar¼
a.

139
Exemplul 12.2. În medie, rata creşterii populaţiei (Y ) asociat¼
a cu un oraş
dat variaz¼
a cu x, num¼
arul de ani dup¼
a 1970. Presupunând c¼ a
2
E (Y ) = 0 + 1x + 2x ;

calculaţi estim¼
arile prin metoda celor mai mici p¼
atrate pentru 0; 1 şi 2 pe
baza datelor din tabelul urm¼ ator.

Fie x1 = x, x2 = x2 şi 0 1
0
=@ 1
A:
2

Estimarea prin metoda celor mai mici p¼


atrate pentru este dat¼
a de relaţia
(12.5) cu 0 1
1 0 0
B 1 1 1 C
B C
B 1 2 4 C
C=B B 1
C
C
B 3 9 C
@ 1 4 16 A
1 5 25
şi 0 1
1; 03
B 1; 32 C
B C
B 1; 57 C
y=B
B
C:
C
B 1; 75 C
@ 1; 83 A
2; 33
Astfel,
0 1 1 0 1 0 1
6 15 55 9; 83 1; 07
1
b = CT C C T y = @ 15 55 225 A @ 28; 68 A = @ 0; 2 A ;
55 225 979 110; 88 0; 01
sau
b = 1; 07; b = 0; 2 şi b = 0; 01:
0 1 2

Observ¼ am în acest exemplu c¼a, deoarece x2 = x21 , în matricea C elementele


de pe coloana a treia sunt p¼
atratele elementelor corespunz¼ atoare de pe coloana
a doua. Pentru modele de regresie polinomial¼ a de ordin superior, situaţii de
aţi în inversarea matricei C T C.
acest tip pot conduce la di…cult¼

140
13 Estimatori neparametrici ai unei densit¼
aţi de
repartiţie
13.1 Preliminarii
Fie X1 ; X2 ; :::; Xn o selecţie independent¼ a de m¼ arime n dintr-o populaţie X cu
o presupus¼ a densitate f (x; ) sau mas¼ a p(x; ), unde poate … speci…cat sau
nu. Not¼ am cu ipoteza H ipoteza c¼ a selecţia reprezint¼
a n valori ale unei variabile
aleatoare cu densitatea f (x; ) sau masa p(x; ). Aceast¼ a ipotez¼ a este numit¼ a
ipotez¼a simpl¼a când repartiţia este complet speci…cat¼ a, adic¼
a valorile parametru-
lui sunt speci…cate împreun¼ a cu forma funcţional¼ a a densit¼aţii sau masei; altfel
este o ipotez¼a compus¼a. Pentru a construi un criteriu pentru testarea ipotezelor
este necesar s¼ a …e stabilit¼a o ipotez¼a alternativ¼a împotriva c¼ areia ipoteza H
poate … testat¼ a. Un exemplu de ipotez¼ a alternativ¼a este alt¼ a repartiţie presu-
pus¼a sau, ca alt exemplu, ipoteza H poate … testat¼ a împotriva ipotezei alter-
native c¼ a ipoteza H nu este adev¼ arat¼a. Vom considera în continuare ultima
alegere.

13.1.1 Erori de tipul I şi de tipul II


Ca şi în estimarea parametrilor, erorile sau riscurile sunt inerente în decizia dac¼
a
o ipotez¼ a H ar trebui s¼
a …e acceptat¼
a sau respins¼ a pe baza informaţiei dat¼a de
selecţie.
De…niţia 13.1. În testarea ipotezei H, o eroare de tipul I e comis¼ a când
H este respins¼ a când de fapt H este adev¼ arat¼a; o eroare de tipul II este comis¼a
când H este acceptat¼ a când de fapt H este fals¼a.
În cele ce urmeaz¼ a, metodele de testare a ipotezelor sunt discutate doar pe
baza erorilor de tipul I.

13.2 Testul chi-p¼


atrat al bun¼
at¼
aţii de potrivire
Problema este testarea ipotezei H care speci…c¼ a repartiţia unei populaţii X
comparat¼ a cu alternativa c¼
a repartiţia lui X nu este de tipul speci…cat pe baza
unei selecţii de m¼
arime n din populaţia X. Testul chi-p¼ atrat ( 2 ) al bun¼
at¼aţii
de potrivire a fost elaborat pentru acest scop de Pearson în 1900.

13.2.1 Cazul parametrilor cunoscuţi


Presupunem mai întâi c¼ a repartiţia presupus¼ a este complet speci…cat¼ a, f¼
ar¼
a
parametri necunoscuţi. Pentru a testa ipoteza H este folosit¼ a o statistic¼ a
h (X1 ; X2 ; :::; Xn ) a selecţiei, care d¼a o m¼ asur¼
a a deviaţiei repartiţiei observate
construit¼ a din selecţie de la repartiţia presupus¼ a.
În testul 2 , statistica utilizat¼ a este legat¼a de diferenţa dintre diagrama
frecvenţelor construit¼ a din selecţie şi o diagram¼a corespunz¼ atoare construit¼ a din
repartiţia presupus¼ a. Se împarte spaţiul valorilor lui X în k intervale disjuncte

141
2 câte 2 A1 ; A2 ; :::; Ak şi …e Ni num¼
arul Xj -urilor din Ai ; i = 1; 2; :::; k. Atunci
probabilit¼
aţile observate P (Ai ) sunt date de
Ni
P (Ai ) observat¼
a = ; i = 1; 2; :::; k: (13.1)
n
Probabilit¼ aţile teoretice P (Ai ) pot … obţinute din repartiţia presupus¼
a a popu-
laţiei. Le not¼ am cu

P (Ai ) teoretic¼
a = pi ; i = 1; 2; :::; k: (13.2)

O alegere logic¼
a a statisticii dând o m¼
asur¼
a a deviaţiei este
k
X 2
Ni
ci pi ; (13.3)
i=1
n

care este o m¼asur¼


a natural¼a a deviaţiei de tipul celor mai mici p¼ atrate. Pear-
son (1900) a ar¼atat c¼
a, dac¼
a lu¼ am coe…cientul ci = pni , statistica de…nit¼
a prin
expresia (13.3) are propriet¼
aţi convenabile. De aici, alegem ca m¼ asura deviaţiei

Xk 2 k
X X N2
2 k
n Ni (Ni npi ) i
D= pi = = n: (13.4)
p
i=1 i
n i=1
npi i=1
np i

D este o statistic¼ a deoarece este o funcţie de Ni , care sunt, la rândul lor,


funcţii de selecţia X1 ; X2 ; :::; Xn . Repartiţia statisticii D este dat¼ a în teorema
urm¼ atoare, datorat¼ a lui Pearson (1900).
Teorema 13.1. Presupunând c¼ a ipoteza H este adev¼ arat¼a, repartiţia lui
D de…nit¼ a de relaţia (13.4) tinde la o repartiţie chi-p¼ atrat cu (k 1) grade de
libertate când n ! 1. Densitatea ei este dat¼ a de (vezi relaţia (5.24))
8 k 3
< d 2 e d2 ; pentru d 0;
k 1
fD (d) = 2 2 ( k2 1 ) (13.5)
:
0, altfel.

Aceast¼a repartiţie este independent¼ a de repartiţia presupus¼a.


Cu ajutorul teoremei 13.1 poate … construit un test al ipotezei H considerat¼ a
mai sus pe baza atribuirii unei probabilit¼ aţi erorii de tipul I. Presupunem c¼
a
vrem s¼a obţinem probabilitatea pentru eroarea de tipul I. Testul 2 sugereaz¼ a

a ipoteza H este respins¼ a ori de câte ori

Xk
n2i 2
d= n> k 1; ; (13.6)
i=1
npi

şi este acceptat¼


a altfel, unde d este valoarea de selecţie a lui D bazat¼ a pe
valorile de selecţie xi ; i = 1; :::; n şi 2k 1; este valoarea astfel încât (vezi …gura
urm¼ atoare)
P D > 2k 1; = : (13.7)

142
Deoarece D are o repartiţie chi-p¼ atrat cu (k 1) grade de libertate pentru n
mare, o valoare aproximativ¼ a pentru 2k 1; poate … g¼ asit¼
a din tabelul A.5 din
cursul 9 pentru repartiţia 2 când este speci…cat.
Probabilitatea a erorii de tipul I se numeşte nivel de semni…caţie în acest
context. Dup¼ a cum vedem din …gura de mai sus, reprezint¼ a aria de sub fD de
la dreapta lui 2k 1; . Punând = 0; 05, de exemplu, criteriul dat de relaţia
(13.6) implic¼
a faptul c¼ a respingem ipoteza H ori de câte ori m¼ asura deviaţiei d
calculat¼
a dintr-un set dat de valori de selecţie pic¼ a în regiunea de 5%. Cu alte
cuvinte, ne aştept¼
am s¼ a respingem H în aproximativ 5% din timpul când de fapt
H este adev¼ arat¼a. Ce nivel de semni…caţie trebuie adoptat într-o situaţie dat¼ a
depinde de cazul particular implicat. În practic¼ a, valori obişnuite pentru sunt
0; 001; 0; 01 şi 0; 05; o valoare a lui între 1% şi 5% este aproape semni…cativ¼a ;
o valoare între 0; 1% şi 1% este semni…cativ¼a, iar o valoare sub 0; 1% este înalt
semni…cativ¼a.
D¼am acum procedura pas cu pas pentru efectuarea testului 2 când repartiţia
unei populaţii X este complet speci…cat¼ a.

Pasul 1: împarte spaţiul de valori ale lui X în k intervale convenabile


numeric şi disjuncte 2 câte 2 Ai ; i = 1; 2; :::; k. Fie ni , num¼arul de valori
ale selecţiei din Ai . De regul¼
a, dac¼
a ni < 5, combin¼ a intervalul Ai cu Ai 1
sau Ai+1 .

143
Pasul 2: calculeaz¼ a probabilit¼
aţile teoretice P (Ai ) = pi ; i = 1; 2; :::; k, cu
ajutorul repartiţiei presupuse.
Pasul 3: construieşte d dat de relaţia (13.6).
Pasul 4: alege o valoare a lui şi determin¼
a din tabelul A.5 pentru repar-
tiţia 2 cu (k 1) grade de libertate valoarea lui 2k 1; .
2
Pasul 5: respinge ipoteza H dac¼
ad> k 1; . Altfel, accept¼
a H.
Exemplul 13.1. 300 de becuri sunt testate pentru timpul de ardere t (în
ore) şi rezultatul este ar¼
atat în tabelul urm¼
ator.

Presupunem c¼a timpul aleator de ardere este repartizat exponenţial cu timpul


mediu de ardere 1 = 200 de ore, adic¼
a = 0; 005 pe or¼ a şi
0;005t
fT (t) = 0; 005e ; t 0: (13.8)
2
Testaţi aceast¼
a ipotez¼a folosind testul la nivelul de semni…caţie de 5%.
2
Paşii necesari în efectuarea testului sunt indicaţi în tabelul urm¼
ator.

Prima coloan¼ a d¼
a intervalele Ai , care sunt alese în acest caz s¼ a …e intervalele
pentru t date în tabelul anterior. Probabilit¼ aţile teoretice P (Ai ) = pi din
coloana a treia sunt calculate folosind relaţia (13.8). De exemplu,
Z 100
p1 = P (A1 ) = 0; 005e 0;005t dt = e 0;005t j100
0 = 1 e 0;5 = 0; 39;
0

144
Z 200
0;005t 0;005t 200 0;5 1
p2 = P (A2 ) = 0; 005e dt = e j100 =e e = 0; 24:
100
Numerele teoretice de apariţii prezise de model sunt date în coloana a patra a
tabelului, care, când este comparat¼ a cu coloana a doua, d¼
a o m¼asur¼
a a bun¼at¼
aţii
n2i
de potrivire a modelului cu datele. Coloana 5 ( npi ) este inclus¼
a pentru a facilita
calcularea lui d. Astfel, din relaţia (13.6) avem

Xk
n2i
d= n = 301; 7 300 = 1; 7:
i=1
npi

k = 4. Din tabelul A.5 pentru repartiţia 2 cu 3 grade de libertate (vezi cursul


9) g¼
asim
2
3;0:05 = 7; 815:

Deoarece d < 23;0:05 , accept¼ am la un nivel de semni…caţie de 5% ipoteza c¼ a


datele observate reprezint¼ a o selecţie dintr-o repartiţie exponenţial¼
a cu =
0; 005.
Exemplul 13.2. Înregistrarea num¼ arului de accidente din 6 ani ale 7842
de şoferi californieni este dat¼
a în tabelul urm¼ ator.

Pe baza acestor valori de selecţie, testaţi ipoteza c¼


a X, num¼
arul de accidente din
6 ani pe şofer, este repartizat Poisson cu rata medie = 0; 08 pe an la nivelul
de semni…caţie de 1%.
Deoarece X este discret¼ a, alegem intervalele Ai ca în prima coloan¼a a tabelu-
lui urm¼
ator.

145
Intervalul x > 5 ar … fost combinat cu 4 < x 5 dac¼
a num¼
arul n7 ar … fost mai
mic decât 5.
Repartiţia presupus¼
a pentru X este
x t x 0;48
( t) e (0; 48) e
pX (x) = = ; x = 0; 1; 2; :::: (13.9)
x! x!
Astfel avem
i 1 0;48
(0; 48) e
pi = P (Ai ) = ; i = 1; 2; :::; 6:
(i 1)!
6
X
p7 = P (A7 ) = 1 pi :
i=1

Aceste valori sunt indicate în coloana a treia a tabelului.


Coloana 5 a tabelului d¼ a
Xk
n2i
d= n = 8413 7842 = 571:
i=1
npi

2 2
Cu k = 7, valoarea lui k 1; = 6;0:01 este g¼
asit¼
a din tabelul A.5
2
6;0:01 = 16; 812:
2
Deoarece d > 6;0:01 , ipoteza este respins¼
a la nivelul de semni…caţie 1%.

13.2.2 Cazul parametrilor estimaţi


Consider¼
am acum situaţia în care parametrii din repartiţia presupus¼
a trebuie de
asemenea estimaţi din date. O procedur¼
a pentru un test de bun¼ atatea potrivirii

146
în acest caz este întâi estimarea parametrilor şi apoi efectuarea testului 2 pen-
tru parametri cunoscuţi. Apare o complicaţie în aceea c¼ a probabilit¼
aţile teo-
retice pi de…nite de relaţia (13.2) sunt, …ind funcţii de parametrii repartiţiei,
funcţii de selecţie. Statistica D ia acum forma
k
X 2 k
X
n Ni Ni2
D= Pbi = n; (13.10)
Pbi
i=1
n nPbi
i=1

unde Pbi este un estimator pentru pi şi astfel o statistic¼ a. D este acum o funcţie
mult mai complicat¼ a de X1 ; X2 ; :::; Xn . Care este noua repartiţie a lui D?
Problema determin¼ arii repartiţiei limit¼
a a lui D în aceast¼ a situaţie a fost
mai întâi considerat¼ a de Fischer (1922, 1924), care a ar¼ atat c¼
a, când n ! 1,
repartiţia lui D trebuie modi…cat¼ a, şi modi…carea depinde de metoda de estimare
a parametrilor folosit¼ a. Din fericire, pentru o clas¼ a de metode importante de
estimare, ca matoda verosimilit¼ aţii maxime, modi…carea cerut¼ a este simpl¼ a, şi
anume, statistica D tinde la o repartiţie chi p¼ atrat când n ! 1, dar acum cu
(k r 1) grade de libertate, unde r este num¼ arul de parametri de estimat din
repartiţia presupus¼a. Cu alte cuvinte, este doar necesar de a reduce num¼ arul de
grade de libertate în repartiţia limit¼ a de…nit¼
a de relaţia (13.5) cu unu pentru
…ecare parametru estimat din selecţie.

am acum procedura pas cu pas pentru cazul când r parametri din repartiţie
trebuie estimaţi din date.

Pasul 1: împarte spaţiul de valori ale lui X în k intervale convenabile


numeric şi disjuncte 2 câte 2 Ai ; i = 1; 2; :::; k. Fie ni , num¼arul de valori
ale selecţiei din Ai . De regul¼
a, dac¼
a ni < 5, combin¼ a intervalul Ai cu Ai 1
sau Ai+1 .
Pasul 2: estimeaz¼
a cei r parametri prin metoda verosimilit¼
aţii maxime din
date.
Pasul 3: calculeaz¼ a probabilit¼
aţile teoretice P (Ai ) = pi ; i = 1; 2; :::; k, cu
ajutorul repartiţiei presupuse cu valorile parametrilor estimate.
Pasul 4: construieşte d dat de relaţia (13.6).
Pasul 5: alege o valoare a lui şi determin¼
a din tabelul A.5 pentru repar-
tiţia 2 cu (k r 1) grade de libertate valoarea lui 2k r 1; . Se pre-
supune c¼a k r 1 > 0.
2
Pasul 6: respinge ipoteza H dac¼
ad> k r 1; . Altfel, accept¼
a H.

Exemplul 13.3. Sosirile vehiculelor într-un anumit punct au fost înregis-


trate. Numerele de vehicule sosite în interval de un minut au fost luate pentru
106 minute şi sunt date în tabelul urm¼
ator.

147
Pe baza acestor observaţii, determinaţi dac¼
a o repartiţie Poisson este potrivit¼
a
pentru X, num¼ arul de sosiri pe minut, la nivelul de semni…caţie de 5%.
Repartiţia presupus¼a este
x
e
pX (x) = ; x = 0; 1; 2; :::; (13.11)
x!
unde parametrul trebuie s¼ a …e estimat din date. Astfel, r = 1.
Întâi determin¼am intervale corespunz¼atoare Ai astfel încât ni 5; 8i; acestea
sunt ar¼
atate în prima coloan¼a a tabelului urm¼ator.

148
De aici k = 11.
Estimarea de verosimilitate maxim¼
a pentru este dat¼
a de
X n
b=x= 1 xj = 9; 09:
n j=1

Înlocuirea acestei valori pentru parametrul în relaţia (13.11) ne permite s¼


a
calcul¼
am probabilit¼aţile P (Ai ) = pi . De exemplu,
4
X
p1 = pX (j) = 0; 052;
j=0

p2 = pX (5) = 0; 058:
Aceste probabilit¼
aţi teoretice sunt date în a treia coloan¼
a a tabelului.
Din coloana 5 a tabelului obţinem
Xk
n2i
d= n = 119; 56 106 = 13; 56:
i=1
npi

Tabelul A.5 cu = 0; 05 şi k r 1 = 9 grade de libertate d¼


a
2
9;0:05 = 16; 919:

Deoarece d < 29;0:05 , repartiţia presupus¼


a cu = 9; 09 este acceptat¼
a la
nivelul de semni…caţie de 5%.

149
Exemplul 10.4. Pe baza datelor c¼ aderilor de z¼
apad¼
a dintre 1909 şi 1979 din
tabelul urm¼ator, testaţi ipoteza: c¼aderea anual¼ a de z¼
apad¼a poate … modelat¼ a
printr-o repartiţie normal¼a la nivelul de semni…caţie de 5%.

Repartiţia asumat¼ a pentru X, c¼aderea anual¼


a de z¼apad¼a, este N m; 2
2
unde m şi trebuie s¼
a …e esimate din date. Doarece estimatorii de verosimili-
tate maxim¼ a pentru m şi 2 sunt M c = X, respectiv c2 = n 1 S 2 , avem
n

70
1 X
b =x=
m xj = 83; 6;
70 j=1

X 70
c2 = 69 s2 = 1 (xj
2
83; 6) = 777; 4:
70 70 j=1

Cu intervalele Ai de…nite dup¼ a cum se arat¼a în prima coloan¼


a a tabelului urm¼ a-
tor, probabilit¼
aţile teoretice P (Ai ) pot … calculate cu ajutorul tabelului A.3.

150
De exemplu, primele dou¼a dintre aceste probabilit¼ aţi sunt
56
p 83;6
P (A1 ) = P (X 56) = P U 777;4
= F U ( 0; 99) = 1 FU (0; 99) =
1 0; 8389 ' 0; 161;
P (A2 ) = P (56 < X 72) = P ( 0; 99 < U 0; 416) = [1 FU (0; 416)]
[1 FU (0; 99)] = 0; 339 0; 161 = 0; 178:
Informaţia dat¼
a mai sus ne permite s¼ a construim restul tabelului. De aici,
avem
Xk
n2i
d= n = 72; 4 70 = 2; 4:
i=1
npi
Num¼arul de grade de libertate în acest caz este k r 1 = 6 2 1 = 3. Tabelul
A.5 d¼
a astfel
2
3;0:05 = 7; 815:

Deoarece d < 23;0:05 repartiţia normal¼a N (83:6; 777:4) este acceptabil¼


a la nivelul
de semni…caţie de 5%.
Statistica D din testul 2 este repartizat¼ a 2 doar când n ! 1. Astfel,
2
testul este un test de selecţie mare. Ca regul¼ a, n > 50 este considerat
satisf¼
ac¼
ator pentru a îndeplini cerinţa de selecţie mare.

13.3 Testul Kolmogorov-Smirnov


Aşa-numitul test de bun¼atatea potrivirii Kolmogorov-Smirnov, prescurtat tes-
tul K-S, este bazat pe o statistic¼ a m¼ asurând deviaţia histogramei cumulative
observate de la funcţia de repartiţie cumulativ¼ a presupus¼ a.
Fiind dat un set de valori de selecţie x1 ; x2 ; :::; xn observate dintr–o populaţie
X, o histogram¼ a cumulativ¼ a poate … construit¼ a prin
(a) aranjarea valorilor de selecţie în ordine cresc¼ atoare, notate cu x(1) ; x(2) ; :::; x(n) ,
(b) determinarea funcţiei de repartiţie observat¼ a a lui X în x(1) ; x(2) ; :::,
notate prin F 0 x(1) ; F 0 x(2) ; :::, din relaţiile F 0 x(i) = ni şi
(c) conectarea valorilor lui F 0 x(i) prin segmente de dreapt¼ a.

151
Statistica test folosit¼
a în acest caz este
n n i
D2 = max F 0 X(i) FX X(i) = max FX X(i) ; (13.12)
i=1 i=1 n
unde X(i) este a i-a statistic¼ a de ordine a selecţiei. Statistica D2 m¼ asoar¼a
astfel maximul valorilor absolute ale celor n diferenţe dintre funcţia de repar-
tiţie observat¼
a şi funcţia de repartiţie presupus¼a evaluat¼ a pentru selecţia obser-
vat¼ a. În cazul când trebuie estimaţi parametri din repartiţia presupus¼ a, valorile
FX X(i) sunt obţinute folosind estim¼ arile.
În timp ce repartiţia lui D2 este di…cil de obţinut analitic, funcţia ei de
repartiţie poate … calculat¼ a numeric şi tabelat¼ a. Se poate ar¼ ata c¼a repartiţia
lui D2 este independent¼ a de repartiţia presupus¼ a şi este o funcţie doar de n,
m¼ arimea selecţiei.
Efectuarea testului K-S este asem¼ atoare cu cea a testului 2 . La un nivel
an¼
de semni…caţie speci…cat , regula este s¼ a se resping¼a ipoteza H dac¼ a d2 > cn; ;
altfel, se accept¼a H. Aici, d2 este valoarea de selecţie a lui D2 , şi valoarea cn;
este de…nit¼ a prin
P (D2 > cn; ) = : (13.13)
Valorile cn; pentru = 0:01; 0:05 şi 0:1 sunt date în tabelul A.6 urm¼
ator ca
funcţii de n.

152
Sunt şi diferenţe importante între acest test şi testul 2 . În timp ce testul
2
este un test de selecţie mare, testul K-S este valabil pentru toate valorile
lui n. Mai departe, testul K-S foloseşte valorile selecţiei în forma lor nealterat¼ a
şi neagregat¼ a, în timp ce prelucrarea datelor este necesar¼ a în efectarea testului
2
. Ca dezavantaje, testul K-S este valabil doar pentru repartiţii continue. De
asemenea, valorile lui cn; din tabelul A.6 sunt bazate pe o repartiţie presu-
pus¼ a speci…cat¼ a complet. Când valorile parametrilor trebuie estimate, nu este
disponibil¼ a o metod¼ a riguroas¼
a de ajustare. În aceste cazuri poate … speci…cat
doar c¼ a valorile lui cn; trebuie reduse puţin.
Procedura pas cu pas pentru efectuarea testului K-S este:

Pasul 1: rearanjeaz¼ a valorile selecţiei x1 ; x2 ; :::; xn în ordine cresc¼


atoare şi
noteaz¼
a-le x(1) ; x(2) ; :::; x(n) .
Pasul 2: determin¼ a F 0 (x) în …ecare x(i)
a funcţia de repartiţie observat¼
0 i
folosind F x(i) = n .
Pasul 3: determin¼ a funcţia de repartiţie teoretic¼
a FX (x) în …ecare x(i)
folosind repartiţia presupus¼ a. Parametrii repartiţiei sunt estimaţi din date
dac¼a este necesar.
a diferenţele F 0 x(i)
Pasul 4: formeaz¼ FX x(i) pentru i = 1; 2; :::; n.
Pasul 5: calculeaz¼
a
n
d2 = max F 0 x(i) FX x(i) :
i=1

Determinarea acestei valori maxime cere enumerarea a n cantit¼ aţi. Aceast¼a


munc¼ a poate … redus¼ a puţin reprezentând gra…c F 0 (x) şi FX (x) ca funcţii
de x şi notând locaţia maximului prin inspecţie.
Pasul 6: alege valoarea lui şi determin¼
a din tabelul A.6 valoarea lui cn; .
Pasul 7: respinge ipoteza H dac¼
a d2 > cn; . Altfel, accept¼
a H.

Exemplul 13.5. Se fac 10 m¼ asur¼atori ale rezistenţei la întindere a unui


material. Ele sunt 30:1; 30:5; 28:7; 31:6; 32:5; 29; 27:4; 29:1; 33:5 şi 31. Pe baza
acestui set de date, testaţi ipoteza c¼a rezistenţa la întindere are o repartiţie
normal¼a la nivelul de semni…caţie de 5%.
Reordonarea datelor d¼ a x(1) = 27:4; x(2) = 28:7; :::; x(10) = 33:5. Avem

F 0 (27:4) = 0:1; F 0 (28:7) = 0:2; :::; F 0 (33:5) = 1:

Cu privire la funcţia de repartiţie teoretic¼


a, sunt mai întâi obţinute estim¼
arile
mediei şi dispersiei
10
1 X
b =x=
m xj = 30:3:
10 j=1

153
10
c2 = n 1 1 X 2
s2 = (xj 30:3) = 3:14:
n 10 j=1

Valorile lui FX x(i) pot … g¼


asite acum pe baza repartiţiei N (30:3; 3:14) pentru
X. De exemplu, cu ajutorul tabelului A.3 pentru variabila aleatoare normal¼ a
standardizat¼ a U , avem

27:4 30:3
FX (27:4) = FU p = FU ( 1:64) = 1 FU (1:64) = 1 0:9495 = 0:0505;
3:14
28:7 30:3
FX (28:7) = FU p = FU ( 0:9) = 1 FU (0:9) = 1 0:8159 = 0:1841;
3:14
şi aşa mai departe.
Pentru a determina d2 este constructiv s¼ am gra…c F 0 (x) şi FX (x)
a reprezent¼
ca funcţii de x, ca în …gura urm¼atoare.

Se vede din …gur¼ a maximul diferenţelor dintre F 0 (x) şi FX (x) apare în
a c¼
x = x(4) = 29:1. De aici,

d2 = F 0 x(4) FX x(4) = 0:4 0:2483 = 0:1517:

154
Cu = 0:05 şi n = 10, tabelul A.6 d¼
a

c10;0:05 = 0:41:

Deoarece d2 < c10;0:05 , accept¼


am repartiţia normal¼
a N (30:3; 3:14) la nivelul de
semni…caţie de 5%.
Deoarece valorile parametrilor au fost de asemenea estimate din date, este
mai adecvat s¼a compar¼ am d2 cu o valoare puţin mai mic¼
a decât 0:41. Datorit¼ a
faptului c¼
a valoarea lui d2 este mult sub 0:41, concluzia de mai sus este sigur¼a.

155
14 Introducere în metoda MCMC
În multe aplicaţii ale model¼
arii statistice, analistul de date vrea s¼a foloseasc¼a
un model mai complex pentru un set de date, dar este forţat s¼ a recurg¼ a la
un model suprasimpli…cat pentru a folosi tehnicile disponibile. Metoda MCMC
(prescurtare de la Markov chain Monte Carlo) este bazat¼ a pe simulare şi permite
statisticianului sau inginerului s¼
a examineze datele folosind modele statistice
realiste.

14.1 Inferenţ¼
a bayesian¼
a
Incertitudinea despre valorile parametrilor necunoscuţi se poate reprezenta prin
repartiţii de probabilitate şi se poate proceda ca şi cum parametrii ar … can-
tit¼
aţi aleatoare. Dac¼
a D reprezint¼ a datele care sunt observate şi parametrii
modelului, atunci, pentru a face orice inferenţ¼ a, trebuie s¼ a ştim repartiţia de
probabilitate comun¼ a P (D; ) peste toate cantit¼ aţile aleatoare. Permitem lui

a …e multidimensional. Repartiţia comun¼ a poate … scris¼ a

P (D; ) = P ( ) P (Dj ) ;

unde P ( ) este numit¼


a a priori şi P (Dj ) este numit¼
a verosimilitate. O dat¼
a ce
observ¼am datele D, putem utiliza teorema lui Bayes pentru a obţine repartiţia
a posteriori dup¼
a cum urmeaz¼ a

P ( ) P (Dj )
P ( jD) = R : (14.1)
P ( ) P (Dj ) d

Relaţia (14.1) d¼
a repartiţia lui condiţionat¼a de datele observate D. Deoarece
numitorul relaţiei (14.1) nu este o funcţie de (pentru c¼a integr¼
am în raport cu
), putem scrie proporţionalitatea

P ( jD) / P ( ) P (Dj ) = P ( ) L ( ; D) :

Înţelegerea şi folosirea repartiţiei a posteriori este inima inferenţei bayesiene,


unde este de interes a face deducţii folosind diferite tr¼ as¼
aturi caracteristice ale
repartiţiei a posteriori (de exemplu momente, quantile, etc.). Aceste cantit¼ aţi
pot … scrise ca medii a posteriori ale funcţiilor de parametrii modelului dup¼ a
cum urmeaz¼ a R
f ( ) P ( ) P (Dj ) d
E (f ( ) jD) = R : (14.2)
P ( ) P (Dj ) d
Numitorul din relaţiile (14.1) şi (14.2) este o constant¼
a de proporţionalitate.
Uneori, acesta poate … foarte di…cil, dac¼ a nu imposibil, de obţinut. Aceasta este
adev¼arat în special când problema este înalt dimensional¼ a, deoarece trebuie
integrat în raport cu o mulţime de parametri. Integrarea analitic¼ a în aceste
expresii a fost o surs¼
a de di…cultate în aplicaţiile inferenţei bayesiene, şi adesea
au fost folosite modele mai simple pentru a face posibil¼ a analiza. Integrarea
Monte Carlo folosind MCMC este un r¼ aspuns la aceast¼a problem¼ a.

156
Schimb¼ am notaţia pentru a o face mai general¼ a. Fie X un vector de d
variabile aleatoare, cu repartiţia notat¼
a (x). Scopul este de a obţine media
R
f (x) (x) dx
E (f (X)) = R : (14.3)
(x) dx

Cu metoda MCMC trebuie s¼ a ştim doar repartiţia lui X pân¼ a la constanta


de normalizare. Aceasta înseamn¼ a c¼
a numitorul din relaţia (14.3) poate … ne-
cunoscut. În cele ce urmeaz¼ a presupunem c¼ a X ia valori în Rd . Metoda poate
… aplicat¼
a la variabile aleatoare discrete cu schimb¼ari corespunz¼atoare.

14.2 Integrarea Monte Carlo


Cele mai multe metode din inferenţa statistic¼ a care folosesc simularea pot …
reduse la problema a‡a¼rii integralelor. Aceasta este o parte fundamental¼ a a
metodologiei MCMC.
Integrarea Monte Carlo estimeaz¼ a integrala E (f (X)) din relaţia (14.3) obţinând
selecţia Xt ; t = 1; :::; n din repartiţia (x) şi calculând
n
1X
E (f (X)) f (Xt ) : (14.4)
n t=1

Când Xt sunt independente, aproximarea poate … f¼ acut¼


a oricât de bun¼a crescând
pe n. În metoda MCMC, selecţia nu este independent¼ a în cele mai multe cazuri.
Aceasta nu limiteaz¼ a utilizarea ei în a‡area integralelor folosind aproximari ca
cea din relaţia (14.4). Totuşi, trebuie avut¼ a grij¼
a din cauza dependenţei când
se determin¼a dispersia estim¼ arii din relaţia (14.4).
p
Exemplul 14.1. Pentru o repartiţie exponenţial¼ a cu = 1 a‡a¼m E X
folosind relaţia (14.4). Gener¼am 500 de variabile aleatoare din repartiţia dat¼ a,
lu¼
am radical din …ecare şi apoi a‡a¼m media acestor valori. S-a obţinut o estimare
de 0; 889. Valoarea obţinut¼ a folosind integrarea numeric¼ a este 0; 886, destul de
aproape de cea obţinut¼ a prin metoda Monte Carlo.
Xt nu trebuie s¼ a …e independente atât timp cât sunt generate din "întregul"
domeniu al lui (x) în proporţiile corecte. Aceast proces de generare poate …

acut construind un lanţ Markov care are (x) ca repartiţie staţionar¼ a.

14.3 Lanţuri Markov


Un lanţ Markov este un şir de variabile aleatoare astfel încât urm¼ atoarea val-
oare sau stare a şirului depinde doar de precedenta. Astfel, gener¼ am un şir de
variabile aleatoare X0 ; X1 ; ::: astfel încât urm¼ atoarea stare Xt+1 cu t 0 este
repartizat¼a conform cu P (Xt+1 jXt ), care este numit nucleul de tranziţie. O
realizare a acestui şir este numit¼a de asemenea un lanţ Markov. Presupunem c¼ a
nucleul de tranziţie nu depinde de t, f¼ acând lanţul omogen în raport cu timpul.
O chestiune care trebuie abordat¼ a este cât de sensibil este lanţul faţ¼
a de
starea sa de start X0 . În anumite condiţii, lanţul va uita starea sa iniţial¼ a şi

157
va converge la o repartiţie staţionar¼
a, care este notat¼
a cu . Când t creşte, Xt
devin dependente de .
S¼a presupunem c¼ a Xt ; t = m + 1; :::; n, au repartiţia staţionar¼
a . Putem
îndep¼arta primele m iterate şi folosi pe cele n m r¼ amase împreun¼ a cu relaţia
(14.4) pentru a obţine o estimare a mediei dup¼ a cum urmeaz¼ a
n
X
1
E (f (X)) f (Xt ) : (14.5)
n m t=m+1

Geyer a sugerat în 1992 c¼a m poate … între 1% şi 2% din n, unde n este su…cient
de mare pentru a obţine precizie adecvat¼ a în estimarea dat¼ a de relaţia (14.5).
Cât de mare ar trebui s¼ a …e n pentru a obţine precizia cerut¼ a în estimare?
Calculul dispersiei estim¼arii date de relaţia (14.5) este di…cil, deoarece Xt nu
sunt independente. Un mod de a determina n prin simulare este de a genera
câteva lanţuri Markov în paralel, …ecare cu o valoare de start diferit¼
a. Estim¼arile
din relaţia (14.5) sunt comparate şi dac¼a diferenţa dintre ele este prea mare,
atunci lungimea lanţurilor trebuie crescut¼a.

14.4 Analiza rezultatelor


Un analist poate … interesat în calculul mediilor, dispersiilor marginale, etc.
pentru componentele lui X. Dac¼ a Xt;j reprezint¼a componenta j a lui Xt la pasul
t al lanţului, atunci, folosind relaţia (14.5), putem obţine mediile şi dispersiile
marginale din
Xn
1
X ;j = Xt;j ;
n m t=m+1

şi
n
X
2 1 2
S;j = Xt;j X ;j :
n m 1 t=m+1

Se pot construi lanţuri Markov cu o anumit¼ a repartiţie staţionar¼


a de care
suntem interesaţi (x), numit¼
a adesea repartiţie ţint¼a.

BIBLIOGRAFIE

1. Dumitrescu M., B¼ at¼


atorescu A., Applied statistics using the R System,
Editura Universitatii Bucuresti, 2006.
2. Martinez W.L., Martinez A.R., Computational Statistics Handbook with
MATLAB, Chapman & Hall, 2002.
3. Saporta G., Probabilité, analyse des données et statistique, Edition Tech-
nip, Paris, 1990.
4. Soong, T.T., Fundamentals of probability and statistics for engineers,
Wiley, 2004.
5. Tudor C., Teoria Probabilit¼aţilor, Editura Universit¼
aţii Bucureşti, 2004.

158

S-ar putea să vă placă și