Documente Academic
Documente Profesional
Documente Cultură
Carte Teorie PDF PDF
Carte Teorie PDF PDF
Part I
Probabilit¼
aţi
1 Câmp de probabilitate. Operaţii cu eveni-
mente şi formule de calcul pentru
probabilit¼aţile acestora. Evenimente indepen-
dente. Probabilitatea condiţionat¼ a. Formula
lui Bayes
1.1 Câmp de probabilitate
În teoria probabilit¼ aţilor consider¼ am un experiment cu un rezultat dependent
de şans¼
a, care e numit experiment aleator. Se presupune c¼ a toate rezultatele
posibile ale unui experiment aleator sunt cunoscute şi ele sunt elemente ale unei
mulţimi fundamentale denumit¼ a ca spaţiul probelor. Fiecare rezultat posibil este
numit prob¼a şi un eveniment este o submulţime a spaţiului probelor.
Notaţii. Fie mulţime.
P ( ) := fAjA g:
Fie A :
A = CA := fa 2 ja 2 = Ag :
De…niţia 1.1. Fie mulţime. K P ( ) se numeşte corp borelian sau
-algebr¼a pe dac¼ a şi numai dac¼ a
1) K 6= ;
2) A 2 K =) A 2 K [
3) A1 ; A2 ; :::; An ; ::: 2 K =) An 2 K.
n
( ; K) se numeşte spaţiu m¼asurabil când K este corp borelian pe :
Propriet¼ aţi. Dac¼
a ( ; K) este spaţiu m¼asurabil atunci:
1
a) 2 K
b) ; 2 K
n
[
c) A1 ; A2 ; :::; An 2 K =) Ai 2 K.
i=1
\ d) I cel mult num¼
arabil¼
a (i.e. …nit¼
a sau num¼
arabil¼
a), Ai 2 K; 8i 2 I =)
Ai 2 K
i2I
e) A; B 2 K =) AnB 2 K.
Demonstraţie. a) K 6= ; =) 9A 2 K =) A 2 K =) =A[A[A[
A [ ::: 2 K.
b) ; = 2 K.
[n n
[
c) Ai = Ai [ ; [ ; [ ::: 2 K.
i=1 i=1
\ [
d) Ai = Ai 2 K.
i2I i2I
e) AnB = A \ B 2 K.
Consider¼ am un corp borelian pe K pe un spaţiu de elemente a; b; c; ::: cu
fag ; fbg ; fcg ; ::: 2 K şi cu submulţimile A; B; C; ::: 2 K. Unele dintre corespon-
denţele dintre teoria mulţimilor şi teoria probabilit¼ aţilor sunt date în urm¼atorul
tabel:
Teoria mulţimilor Teoria probabilit¼ aţilor
Spaţiu, Spaţiul probelor, eveniment sigur
Mulţimea vid¼ a, ; Eveniment imposibil
Elemente a; b; ::: Probe a; b; ::: (sau evenimente simple)
Mulţimi A; B; ::: Evenimente A; B; :::
A Evenimentul A apare
A Evenimentul A nu apare
A[B Cel puţin unul dintre A şi B apare
A\B Ambele A şi B apar
A B A este un subeveniment al lui B (i.e. apariţia lui A implic¼ a apariţia lui B)
A\B =; A şi B sunt mutual exclusive (i.e. ele nu pot ap¼ area simultan)
; este considerat¼ a un eveniment imposibil deoarece niciun rezultat posibil
nu este element al ei. Prin "apariţia unui eveniment" înţelegem c¼ a rezultatul
observat este un element al acelei mulţimi. Spunem c¼ a mai multe evenimente
sunt mutual exclusive dac¼ a mulţimile corespunz¼ atoare sunt disjuncte dou¼ a câte
dou¼ a.
Exemplul 1.1. Consider¼ am un experiment de calculare a num¼ arului de
maşini care vireaz¼ a la stânga la o intersecţie dintr-un grup de 100 de maşini.
Rezultatele posibile (numerele posibile de maşini care vireaz¼ a la stânga) sunt
0; 1; 2; :::; 100: Atunci, spaţiul probelor este = f0; 1; 2; :::; 100g şi K = P ( ) :
A = f0; 1; 2; :::; 50g este evenimentul "cel mult 50 de maşini vireaz¼ a la stânga".
B = f40; 41; :::; 60g este evenimentul "între 40 şi 60 (inclusiv) de maşini vireaz¼ a
la stânga". A [ B este evenimentul "cel mult 60 de maşini vireaz¼ a la stânga".
A \ B este evenimentul "între 40 şi 50 (inclusiv) de maşini vireaz¼ a la stânga".
2
Fie C = f81; 82; :::; 100g. Evenimentele A şi C sunt mutual exclusive.
De…niţia 1.2. Fie ( ; K) spaţiu m¼ asurabil. Funcţia P : K ! R se numeşte
probabilitate pe ( ; K) dac¼ a şi numai dac¼ a are urm¼ atoarele propriet¼
aţi (numite
axiomele probabilit¼ aţii):
Axioma 1: P (A) 0; 8A 2 K (nenegativ¼ a).
Axioma 2: P ( ) = 1 (normat¼ a).
Axioma 3: pentru orice colecţie num¼ arabil¼ a de evenimente mutual exclusive
(mulţimi
0 disjuncte
1 dou¼ a câte dou¼a ) A1 ; A 2 ; ::: 2 K,
[ X
P @ Aj A = P (Aj ) (num¼ arabil aditiv¼ a).
j j
( ; K; P ) se numeşte câmp de probabilitate dac¼
a şi numai dac¼
a P este
probabilitate pe spaţiul m¼
asurabil ( ; K) :
P (A [ B) = P (A) + P (B) P (A \ B) :
5) (Formula lui Poincare) A1 ; A2 ; :::; An 2 K =)
0 1 0 1
n
[ n
X X X n
\
n 1
P@ Aj A = P (Aj ) P (Ai \ Aj )+ P (Ai \ Aj \ Ak ) :::+( 1) P@ Aj A :
j=1 j=1 1 i<j n 1 i<j<k n j=1
În particular, A; B; C 2 K =)
P (A [ B [ C) = P (A) + P (B) + P (C) P (A \ B) P (A \ C) P (B \ C) +
P (A \ B \ C):
6) A 2 K =) P A = 1 P (A) :
A3
Demonstraţie. 1) P ( ) = P ( [ ; [ ; [ :::) = P ( ) + P (;) + P (;) +
A2
::: =) 10= 1 + P1(;) + P
0(;) + ::: =) P (;)1+ P (;) + ::: = 0 =) P (;) = 0:
n
[ n
[ n
X
A3
2) P @ Aj A = P @ Aj [ ; [ ; [ :::A = P (Aj ) + P (;) + P (;) +
j=1 j=1 j=1
3
n
X n
X
1)
::: = P (Aj ) + 0 + 0 + ::: = P (Aj ) :
j=1 j=1
2)
3) P (C) = P (A [ (CnA)) = P (A) + P (CnA) =) P (C) P (A) :
| {z }
0
2) 2)
4) P (A [ B) = P (A [ (BnA)) = P (A) + P (BnA) = P (A) + P (B)
P (A \ B) :
5) Inducţie.
Pentru n = 1 e evident.
Presupunem adev¼ arat pentru n:
Fie0A1 ; A2 ;1
:::; An ;0
An+1 2 K. 1 0 1 00 1 1
n+1
[ [n n
[ n
[
4) ip. ind.
P@ Aj A = P @ Aj [ An+1 A = P @ Aj A+P (An+1 ) P @@ Aj A \ An+1 A =
j=1 j=1 j=1 j=1
0 1
n
X X X n
\
n 1
P (Aj ) P (Ai \ Aj )+ P (Ai \ Aj \ Ak ) :::+( 1) P@ Aj A+
j=1 1 i<j n j=1
0 11 i<j<k n
n
[ ip. ind.
P (An+1 ) P@ (Aj \ An+1 )A =
j=1
0 1
n+1
X X X n
\
n 1
P (Aj ) P (Ai \ Aj )+ P (Ai \ Aj \ Ak ) :::+( 1) P@ Aj A
j=1 1 i<j n 1 i<j<k n j=1
Xn X
[ P (Aj \ An+1 ) P ((Ai \ An+1 ) \ (Aj \ An+1 )) +
j=1 1 i<j n
0 1
X n
\
n 1
P ((Ai \ An+1 ) \ (Aj \ An+1 ) \ (Ak \ An+1 )) :::+( 1) P@ (Aj \ An+1 )A] =
1 i<j<k n j=1
n+1
X X n
X X
P (Aj ) P (Ai \ Aj ) P (Aj \ An+1 )+ P (Ai \ Aj \ Ak )+
j=1 1 i<j n j=1 1 i<j<k n
0 1
X n+1
\
n
P (Ai \ Aj \ An+1 ) ::: + ( 1) P @ Aj A =
1 i<j n j=1
0 1
n+1
X X X n+1
\
n
P (Aj ) P (Ai \ Aj )+ P (Ai \ Aj \ Ak ) :::+( 1) P @ Aj A :
j=1 1 i<j n+1 1 i<j<k n+1 j=1
2)
6) 1 = P ( ) = P A [ A = P (A) + P A :
Exemplul 1.2. În exemplul 1.1, presupunem c¼ a probabilit¼
aţile P (A) ; P (B)
şi P (C) sunt cunoscute. Vrem s¼ a calcul¼ am P (A [ B) (probabilitatea ca cel mult
60 de maşini s¼a vireze la stânga) şi P (A [ C) (probabilitatea ca cel mult 50 de
maşini sau între 80 şi 100 de maşini s¼a vireze la stânga). Deoarece A şi C sunt
mutual exclusive avem
4
P (A [ C) = P (A) + P (C) :
Dar
P (A [ B) = P (A) + P (B) P (A \ B) :
Informaţia dat¼a este insu…cient¼a pentru a determina P (A [ B) şi avem
nevoie de informaţia adiţional¼ a P (A \ B), care este probabilitatea ca între 40
şi 50 de maşini s¼
a vireze la stânga.
P (A \ B) = P (A) P (B) :
Observaţie. Dac¼a A şi B sunt evenimente independente, atunci:
P A \ B = P (A)P B ;
P A \ B = P A P (B) ;
P A\B =P A P B :
Demonstraţie. P (A) = P (A \ B) [ A \ B = P (A \ B)+P A \ B =)
P A \ B = P (A) P (A \ B) = P (A) P (A) P (B) = P (A) (1 P (B)) =
P (A)P B :
Analog pentru celelalte relaţii.
Exemplul 1.3. În lansarea unui satelit, probabilitatea unui insucces este q.
Care este probabilitatea ca dou¼ a lans¼
ari succesive s¼
a eşueze?
Presupunând c¼a lans¼
arile satelitului sunt evenimente independente, r¼ aspun-
sul este q 2 :
De…niţia 1.4. Fie ( ; K; P ) câmp de probabilitate. Evenimentele A1 ; A2 ; :::; An 2
K sunt independente dac¼ a şi numai dac¼a 8m = 2; 3; :::; n; k1 ; k2 ; :::; km 2 N a. î.
1 k1 < k2 < ::: < km n;
5
Analog P (A1 \ A3 ) = P (A1 ) P (A3 ) ; P (A2 \ A3 ) = P (A2 ) P (A3 ) :
P (A1 \ A2 \ A3 ) = P ((B1 [ B2 ) \ (B1 [ B3 ) \ (B2 [ B3 )) = P ((B1 [ (B2 \ B3 )) \ (B2 [ B3 )) =
P (B1 \ (B2 [ B3 )) = P ((B1 \ B2 ) [ (B1 \ B3 )) = P (; [ ;) = P (;) = 0:
P (A1 ) P (A2 ) P (A3 ) = 81 :
Deci P (A1 \ A2 \ A3 ) 6= P (A1 ) P (A2 ) P (A3 ) :
Evenimentele A1 ; A2 ; A3 sunt independente dou¼ a câte dou¼
a, dar nu sunt
independente.
3) Dac¼a evenimentele A1 ; A2 ; :::; An sunt independente, atunci înlocuind ori-
care din Akj cu complementara Akj în ambii membri din relaţiile din de…niţia
independenţei, relaţiile obţinute r¼amân valabile.
Exemplul 1.4. Un sistem compus din 5 componente merge exact atunci
când …ecare component¼ a e bun¼ a. Fie Si ; i = 1; :::; 5; evenimentul "componenta
i e bun¼a" şi presupunem P (Si ) = pi . Care e probabilitatea q ca sistemul s¼ a nu
mearg¼ a?
Presupunând c¼ a cele 5 componente merg într-o manier¼ a independent¼
a, …e p
probabilitatea de succes. !
\5 Y5 Y5
q=1 p=1 P Si = 1 P (Si ) = 1 pi :
i=1 i=1 i=1
P (A \ B)
P (AjB) = :
P (B)
Observaţie. În ipotezele de…niţiei 1.5, A şi B sunt independente ()
P (AjB) = P (A) :
Demonstraţie. A şi B sunt independente () P (A \ B) = P (A) P (B) ()
P (A\B)
P (B) = P (A) () P (AjB) = P (A) :
Propoziţie. Fie ( ; K; P ) câmp de probabilitate şi B 2 K a. î. P (B) 6= 0:
Atunci funcţia PB : K ! R; PB (A) = P (AjB) este probabilitate pe( ; K) :
Demonstraţie. Veri…c¼ am cele 3 axiome ale probabilit¼ aţii:
1) PB (A) = P P(A\B)
(B) 0; 8A 2 K, deoarece P (A \ B) 0 şi P (B) > 0:
2) PB ( ) = P P( (B)\B)
=P P (B)
(B) = 1:
3) A1 ; A2 ; ::: 2 K colecţie num¼
arabil¼
a de evenimente mutual exclusive =)
A1 \B; A2 \B; ::: 2 K mutual exclusive =) PB (A1 [ A2 [ :::) = P ((A1 [A 2 [:::)\B)
P (B) =
P ((A1 \B)[(A2 \B)[:::)
P (B) = P (A1 \B)+P ((A2 \B))+:::
P (B) = P (A 1 \B)
P (B) + P (A 2 \B)
P (B) + ::: =
PB (A1 ) + PB (A2 ) + ::::
Exemplul 1.5. Reconsider¼ am exemplul 1.4 presupunând p1 > 0. Care este
probabilitatea condiţionat¼ a ca primele dou¼ a componente s¼ a …e bune dat …ind
c¼
a:
a) prima component¼ a este bun¼a;
6
b) cel puţin una dintre cele dou¼ a este bun¼ a?
Evenimentul S1 \ S2 înseamn¼ a c¼a ambele componente sunt bune, iar S1 [ S2
c¼
a cel puţin una e bun¼ a. Datorit¼ a independenţei lui S1 şi S2 ; avem:
1 \S2 \S1 )
a) P (S1 \ S2 jS1 ) = P (SP (S1 ) = P (S 1 \S2 )
P (S1 ) = P (SP1(S
)P (S2 )
1)
= P (S2 ) = p2 .
b) P (S1 \ S2 jS1 [ S2 ) = P (S1P\S(S21\(S 1 [S2 ))
[S2 ) =P (S1 \S2 ) P (S1 )P (S2 )
P (S1 [S2 ) = P (S1 )+P (S2 ) P (S1 \S2 ) =
p1 p2
p1 +p2 p1 p2 :
Exemplul 1.6. Determinaţi probabilitatea de a trage, f¼ ar¼a înlocuire, 2 aşi
succesiv dintr-un pachet de c¼ arţi de joc f¼ ar¼
a jokeri.
Fie A1 evenimentul "prima carte tras¼ a este un as" şi similar A2 . Se cere
P (A1 \ A2 ).
4
P (A1 ) = 52 (sunt 4 aşi în cele 52 de c¼ arţi din pachet).
3
P (A2 jA1 ) = 51 (dac¼ a prima carte tras¼ a este un as, au r¼ amas 51 de c¼ arţi
dintre care 3 sunt aşi).
P (A2 jA1 ) = P (A 1 \A2 )
P (A1 ) =) P (A1 \ A2 ) = P (A1 ) P (A2 jA1 ) = 52 4 3
51 =
1 1 1
13 17 = 221 :
Propoziţie. Fie ( ; K; P ) câmp de probabilitate şi A1 ; A2 ; :::; An 2 K a. î.
P (A1 \ A2 \ ::: \ An 1 ) > 0. Atunci
P (A1 \ A2 \ ::: \ An ) = P (A1 ) P (A2 jA1 )P (A3 jA1 \ A2 ) :::P (An jA1 \ A2 \ ::: \ An 1) :
Demonstraţie. A1 A1 \ A2 ::: A1 \ A2 \ ::: \ An 1 =) P (A1 )
P (A1 \ A2 ) ::: P (A1 \ A2 \ ::: \ An 1 ) > 0 =) probabilit¼ aţile
condiţionate din membrul drept au sens.
P (A1 ) P (A2 jA1 )P (A3 jA1 \ A2 ) :::P (An jA1 \ A2 \ ::: \ An 1 ) = P (A1 ) P (A 1 \A2 )
P (A1 )
P (A1 \A2 \A3 )
P (A1 \A2 )
1 \A2 \:::\An )
::: PP(A(A1 \A 2 \:::\An 1 )
= P (A1 \ A2 \ ::: \ An ) :
De…niţia 1.6. Fie Bi ; 8i 2 I: (Bi )i2I se numeşte partiţie a lui dac¼
a
[
şi numai dac¼
a (Bi )i2I sunt disjuncte dou¼ a câte dou¼a şi Bi = :
i2I
Teorema probabilit¼ aţii totale. Fie ( ; K; P ) câmp de probabilitate şi
(Bi )i2I K partiţie cel mult num¼ arabil¼
a a lui a. î. P (Bi ) > 0; 8i 2 I:
Atunci, 8A 2 K,
X
P (A) = P (AjBi ) P (Bi ) :
i2I
7
Probabilit¼ aţile P (Bi ) pot …estimate din înregistr¼
arile meteorologice, iar P (Aj jBi )
din analiza curgerii. Presupunem c¼ a:
P (B1 ) = 0; 5; P (B2 ) = 0; 3; P (B3 ) = 0; 2;
P (A1 jB1 ) = 0; P (A1 jB2 ) = 0; 2; P (A1 jB3 ) = 0; 6;
P (A2 jB1 ) = 1; P (A2 jB2 ) = 0; 8; P (A2 jB3 ) = 0; 4:
Deoarece B1 ; B2 ; B3 constituie o partiţie, din teorema probabilit¼ aţii totale
avem:
P (A1 ) = P (A1 jB1 ) P (B1 )+P (A1 jB2 ) P (B2 )+P (A1 jB3 ) P (B3 ) = 0 0; 5+
0; 2 0; 3 + 0; 6 0; 2 = 0; 18:
P (AjB) P (B)
P (BjA) = :
P (A)
P (A\B)
P (B)
Demonstraţie. P (AjB)P
P (A)
(B)
= P (B)
P (A) = P P(B\A)
(A) = P (BjA) :
Formula lui Bayes. Fie ( ; K; P ) câmp de probabilitate şi (Bi )i2I K
partiţie cel mult num¼arabil¼a a lui a. î. P (Bi ) > 0; 8i 2 I: Atunci, 8A 2 K a.
î. P (A) 6= 0; 8i 2 I;
P (Bi jA) = XP (AjBi )P (Bi ) :
[P (AjBj )P (Bj )]
j2I
TPT P (AjBi )P (Bi ) TB
Demonstraţie. XP (AjBi )P (Bi ) = P (A) = P (Bi jA) :
[P (AjBj )P (Bj )]
j2I
8
B = "1 este primit"
B = "0 este primit".
Din ipoteze
P (A) = 0; 4; P A = 0; 6;
P (BjA) = 0; 95; P BjA = 0; 05;
P BjA = 0; 9; P BjA = 0; 1:
a) Deoarece A şi A formeaz¼ a o partiţie, din teorema probabilit¼
aţii totale
rezult¼
a c¼
a
P (B) = P (BjA) P (A) + P BjA P A = 0; 95 0; 4 + 0; 1 0; 6 = 0; 38 +
0; 06 = 0; 44:
b) Din teorema lui Bayes,
P (AjB) = P (BjA)P
P (B)
(A)
= 0;95 0;4 0;38 19
0;44 = 0;44 = 22 = 0; 864:
9
2 Variabile aleatoare. Variabile aleatoare dis-
crete şi variabile aleatoare continue, cu densi-
tate de repartiţie. Funcţie de repartiţie. Mo-
mentele unei variabile aleatoare
2.1 Variabile aleatoare
Consider¼ am un experiment aleator ale c¼ arui rezultate sunt elemente ale spaţiului
probelor din câmpul de probabilitate ( ; K; P ) : Pentru a construi un model
pentru o variabil¼ a aleatoare, presupunem c¼ a e posibil s¼
a asociem un num¼ ar real
X (!) pentru …ecare rezultat !, urmând un anumit set de reguli.
De…niţia 2.1. Funcţia X se numeşte variabil¼a aleatoare dac¼ a şi numai dac¼a
a) X : ! R, unde ( ; K; P ) este câmp de probabilitate şi
b) 8x 2 R; f! 2 jX (!) xg 2 K.
Condiţia b) din de…niţie e aşa-numita "condiţie de m¼ asurabilitate". Ea ne
asigur¼a c¼
a are sens s¼
a consider¼am probabilitatea evenimentului f! 2 jX (!) xg,
notat mai simplu X x pentru orice x 2 R, sau, mai general, probabilitatea
oric¼
arei combinaţii …nite sau num¼ arabile de astfel de evenimente.
În continuare, dac¼ a nu e speci…cat altfel, variabilele aleatoare sunt
considerate pe un câmp de probabilitate ( ; K; P ) :
FX (x) = P (X x) ;
se numeşte funcţia de repartiţie de probabilitate sau simplu funcţia de repar-
tiţie a lui X.
Indicele X identi…c¼ a variabila aleatoare. Acest indice e uneori omis când nu
e pericol de confuzie.
10
aţi ale funcţiei de repartiţie. 1) Exist¼
Propriet¼ a şi are valori între 0 şi
1:
2) E continu¼
a la dreapta şi cresc¼
atoare. Mai mult, avem:
FX ( 1) := lim FX (x) = 0 şi FX (1) := lim FX (x) = 1:
x! 1 x!1
3) Dac¼ a a; b 2 R a. î. a < b, atunci
P (a < X b) := P (f! 2 ja < X (!) bg) = FX (b) FX (a) :
Aceast¼ a relaţie rezult¼ a din
P (X b) = P (X a) + P (a < X b) :
Exemplul 2.1. Fie X o variabil¼ a aleatoare discret¼ a cu valorile 1; 1; 2; 3
1 1 2 3
luate cu probabilit¼ aţile 41 ; 18 ; 18 , respectiv 21 . Pe scurt not¼
am X 1 1 1 1 .
4 8 8 2
Avem 8
>
> 0, pentru x < 1;
>
>
< 14 , pentru 1 x < 1;
3
FX (x) = 8 , pentru 1 x < 2;
>
> 1
>
> , pentru 2 x < 3;
: 2
1, pentru x 3:
Gra…cul lui FX este dat mai jos.
11
Exemplul 2.2. O funcţie de repartiţie tipic¼
a pentru o variabil¼
a aleatoare
continu¼
a este reprezentat¼
a gra…c mai jos.
12
Dup¼a cum indic¼ a propriet¼aţile 3) şi 4), aria total¼a de sub curb¼ a este 1 şi
suprafaţa haşurat¼a de la a la b e egal¼ a cu P (a < X b).
Observaţie. Cunoaşterea densit¼ aţii sau a funcţiei de repartiţie
caracterizeaz¼ a complet o variabil¼ a aleatoare continu¼ a.
Exemplul 2.4. Fie a > 0. O variabil¼ a aleatoare X a c¼ arei densitate este
ae ax , pentru x > 0;
fX (x) =
0, altfel,
se numeşte repartizat¼a exponenţial (de parametru a). Avem fX (x) 0; 8x 2
R şiZ Z Z
1 0 1
ax ax 1
fX (x) dx = 0dx + ae dx = 0 e j0 = 1;
1 1 0
deci fX veri…c¼
a proprietatea 3).
Dac¼
Z x a x < 0, atunci
Z x
fX (u) du = 0du = 0:
1 1
Dac¼
Z x a x 0, atunciZ Z
0 x
au au x ax
fX (u) du = 0du + ae du = 0 e j0 =1 e :
1 1 0
Deci, din proprietatea 2) avem
0, pentru x < 0;
FX (x) =
1 e ax , pentru x 0:
Gra…cul densit¼ aţii e dat în …gura (a), iar al funcţiei de repartiţie în …gura
(b) de mai jos.
13
Calcul¼
am unele probabilit¼aţi folosind fX .
P (0 < X 1) e egal¼ a cu aria de sub gra…cul lui fX de la x = 0 la x = 1,
dup¼
a cum se arat¼
a în …gura (a). Avem
Z 1
P (0 < X 1) = fX (x) dx = e ax j10 = 1 e a :
0
14
P (X > 3) e obţinut¼
a calculând aria de sub gra…cul lui fX la dreapta lui
x = 3, deci Z 1
P (X > 3) = fX (x) dx = e ax j13 =e
3a
:
3
Aceleaşi probabilit¼
aţi pot … obţinute din FX astfel:
P (0 < X 1) = FX (1) FX (0) = 1 e a 0 = 1 e a ;
P (X > 3) = FX (1) FX (3) = 1 1 e 3a = e 3a :
Mai observ¼ am c¼
a P (0 < X 1) = P (0 X 1) pentru variabile aleatoare
continue, deoarece P (X = 0) = 0:
De…niţia 2.6. Fie X variabil¼ a aleatoare discret¼a. Funcţia pX : R !
R; pX (x) = P (X = x) := P (f! 2 jX (!) = xg) se numeşte funcţia mas¼a de
probabilitate a lui X, sau, pe scurt, masa lui X.
Din nou indicele X e folosit pentru a identi…ca variabila aleatoare asociat¼a.
Exemplul 2.5. Funcţia mas¼ a de probabilitate a variabilei aleatoare X
1 1 2 3
1 1 1 1 din exemplul 2.1 e reprezentat¼ a mai jos.
4 8 8 2
15
2) Ca şi FX , speci…carea lui pX caracterizeaz¼
a complet variabila aleatoare
discret¼
a X. Mai mult, presupunând x1 < x2 < :::, relaţiile dintre FX şi pX sunt
pX (x1 ) = FX (x1 ) ;
pX (xi ) = FX (xi ) FX (xi 1 ) ; 8i > 1;
X
FX (x) = pX (xi ) ; 8x 2 R:
ijxi x
dac¼
a exist¼
a, se numeşte media lui X şi se mai noteaz¼ a mX sau simplu m:
De…niţia 2.8. Fie n 2 N . Num¼ arul real
8 X
>
> xni pX (xi ) , pentru X discret¼
a;
<
n
n := E (X ) =
Z i
1
>
> xn fX (x) dx, pentru X continu¼
a,
:
1
dac¼
a exist¼
a, se numeşte momentul de ordinul n al lui X:
Observaţie. Media este momentul de ordinul 1.
1 1 2 3
Exemplul 2.6. Fie X 1 1 1 1 din exemplul 2.1.
4 8 8 2
E (X) = ( 1) 14 + 1 18 + 2 18 + 3 21 = 41 + 18 + 14 + 32 = 18 + 23 = 13
8 :
Exemplul 2.7. Timpul de aşteptare X (în minute) al unui client la un
automat de bilete are densitatea
2e 2x , pentru x > 0;
fX (x) =
0, altfel.
Determinaţi timpul mediu de aşteptare.
IntegrândZprin p¼arţi avem Z Z Z
1 0 1 1
2x 2x 0
E (X) = xfX (x) dx = 0dx+ x 2e dx = 0 x e dx =
Z 1
1 1 0 0
2x 1 2x 1 2x 1 1
xe j0 + e dx = 0 2e j0 = 2 minut.
0
Propriet¼ aţi ale mediei. Dac¼ a c 2 R este o constant¼ a şi X şi Y sunt
variabile aleatoare pe acelaşi câmp de probabilitate ( ; K; P ), atunci:
16
E (c) = c;
E (cX) = cE (X) ;
E (X + Y ) = E (X) + E (Y ),
E (X) E (Y ), dac¼ a X Y (i.e. X (!) Y (!) ; 8! 2 ).
De…niţia 2.9. Fie X variabil¼ a aleatoare. Se numeşte median¼a a lui X o
valoare x0 a lui X a. î. P (X x0 ) = 21 sau, dac¼ a o astfel de valoare nu exist¼ a,
valoarea x0 a lui X a. î. P (X < x0 ) < 21 şi P (X x0 ) > 21 .
Media lui X poate s¼ a nu existe, dar exist¼a cel puţin o median¼a.
În comparaţie cu media, mediana e uneori preferat¼ a ca m¼
asur¼a a tendinţei
centrale când repartiţia e asimetric¼ a, în particular când sunt un num¼ ar mic de
valori extreme în repartiţie. De exemplu, vorbim de mediana veniturilor ca
o bun¼ a m¼ asur¼a a tendinţei centrale a venitului personal pentru o populaţie.
Aceasta e o m¼ asur¼a mai bun¼ a decât media, deoarece mediana nu e aşa sensibil¼ a
la un num¼ ar mic de venituri extrem de mari sau venituri extrem de mici ca
media.
Exemplul 2.8. Fie T timpul dintre emisiile de particule la un atom ra-
dioactiv. Este stabilit c¼ a T e o variabil¼a aleatoare cu repartiţie exponenţial¼ a,
adic¼a
e t , pentru t > 0;
fT (t) =
0, altfel,
unde e o constant¼ a pozitiv¼
a. Variabila aleatoare T se numeşte timpul de
viaţ¼
a al atomului şi o m¼ asur¼
a medie a acestui timp de viaţ¼ a este timpul de
înjum¼ at¼
aţire, de…nit ca mediana lui T . Astfel, timpul de înjum¼ at¼aţire e g¼ asit
din Z
P (T ) = 21 () fT (t) dt = 21 () 1 e = 12 () e =
1
1
2 () = ln 2 :
Observ¼
amZ c¼
a viaţa medie E (T ) este
1
1
E (T ) = tfT (t) dt = (se calculeaz¼
a analog ca la exemplul 2.7).
1
De…niţia 2.10. Fie X variabil¼ a aleatoare. Se numeşte modul sau mod¼a a
lui X
a) o valoare xi luat¼
a de X a. î. pX (xi ) > pX (xi+1 ) şi pX (xi ) > pX (xi 1 ),
dac¼a X e discret¼
a cu valorile x1 < x2 < :::;
b) un punct de maxim local al lui fX , dac¼ a X e continu¼ a.
Un modul este astfel o valoare a lui X corespunz¼ atoare unui vârf în funcţia
mas¼a de probabilitate sau în densitate.
Termenul distribuţie unimodal¼a se refer¼a la o funcţie de repartiţie a unei
variabile aleatoare care are un modul unic.
Media, mediana şi modulul coincid atunci când o repartiţie unimodal¼ a este
simetric¼a.
De…niţia 2.11. Fie n 2 N şi X variabil¼ a aleatoare de medie m. Momentul
centrat de ordinul n al lui X este
17
8 X
> n
>
< (xi m) pX (xi ) , pentru X discret¼
a;
n = E ((X
n
m) ) = Z i
1
>
> n
(x m) fX (x) dx, pentru X continu¼ a.
:
1
18
exemplul 2.7.
Deci
2
X =E X
2
m2X = 12 41 = 14 :
Coe…cientul de asimetrie de…nit de
1 = 3
3
d¼a o m¼ asur¼
a a simetriei unei distribuţii. Este pozitiv când o distribuţie
unimodal¼ a are o coad¼ a dominant¼ a la dreapta (adic¼a modulul este la stânga
mediei) şi negativ în caz contrar. Este 0 când o distribuţie e simetric¼
a în jurul
mediei. De fapt, o distribuţie simetric¼ a în jurul mediei are toate momentele
centrate de ordin impar 0. În …gurile (a), (b) şi (c) sunt reprezentate densit¼aţi
cu 1 > 0; 1 = 0; respectiv 1 < 0:
19
Gradul de aplatizare a distribuţiei lâng¼a vârfuri poate … m¼
asurat de coe…-
cientul de exces de…nit de
2 = 4 3:
4
20
1
P (jX mX j k X) ; (2.1)
k2
pentru orice k > 0:
Demonstraţie.
Z 1 Presupunem X continu¼
Z a. Din de…niţie avem
2 2 2
X = (x mX ) fX (x) dx (x mX ) fX (x) dx
Z 1 jx mX j k X
2 2 2 2
k X fX (x) dx = k X P (jX mX j k X ) :
jx mX j k X
Rezult¼
a relaţia (2.1). Demonstraţia este similar¼
a când X este discret¼
a.
21
3 Independenţa variabilelor aleatoare. Densi-
tate de repartiţie condiţionat¼a şi formula lui
Bayes pentru densit¼ aţi de repartiţie. Covari-
anţ¼
a şi corelaţie
3.1 Independenţa variabilelor aleatoare
Toate variabilele aleatoare sunt considerate pe acelaşi câmp de probabilitate
( ; K; P ), dac¼
a nu se speci…c¼
a altfel.
De…niţia 3.1. a) Funcţia de repartiţie comun¼a a variabilelor aleatoare X
şi Y este de…nit¼
a de
22
Creşte de la 0 la în¼ alţimea de 1 în direcţia dinspre cadranul 3 spre cadranul
1. Când X şi Y sunt continue FXY este o suprafaţ¼ a neted¼ a cu aceleaşi tr¼as¼
aturi.
Propriet¼ aţile f) şi g) arat¼ a c¼
a funcţiile de repartiţie ale variabilelor aleatoare
individuale, numite funcţii de repartiţie marginale, pot … calculate din funcţia
de repartiţie comun¼ a a lor. Reciproca nu este în general adev¼ arat¼a. O situaţie
important¼ a când reciproca este adev¼ arat¼ a este când X şi Y sunt independente.
De…niţia 3.2. a) Variabilele aleatoare X şi Y sunt independente dac¼ a şi
numai dac¼ a P (X x \ Y y) = P (X x) P (Y y) ; 8x; y 2 R:
b) Variabilele aleatoare X1 ; X2 ; :::; Xn sunt independente dac¼ a şi numai dac¼ a
P (X1 x1 \ X2 x2 \ ::: \ Xn xn ) = P (X1 x1 ) P (X2 x2 ) :::P (Xn xn ) ; 8x1 ; x2 ; :::; xn 2
R:
c) Fie I mulţime in…nit¼ a. Variabilele aleatoare (Xi )i2I sunt independente
() (Xi )i2J sunt independente, 8J I …nit¼ a.
Observaţii. a) X şi Y sunt independente ()
FXY (x; y) = FX (x) FY (y) ; 8x; y 2 R:
b) X1 ; X2 ; :::; Xn sunt independente ()
FX1 X2 :::Xn (x1 ; x2 ; :::; xn ) = FX1 (x1 ) FX2 (x2 ) :::FXn (xn ) ; 8x1 ; x2 ; :::; xn 2 R:
c) X şi Y sunt independente =)
23
P (x1 < X x2 \ y1 < Y y2 ) = P (x1 < X x2 ) P (y1 < Y y2 ) ; 8x1 ; x2 ; y1 ; y2 2
R a. î. x1 < x2 şi y1 < y2 :
Demonstraţie. a), b) Evident.
c) P (x1 < X x2 \ y1 < Y y2 ) =
FXY (x2 ; y2 ) FXY (x1 ; y2 ) FXY (x2 ; y1 ) + FXY (x1 ; y1 ) =
FX (x2 ) FY (y2 ) FX (x1 ) FY (y2 ) FX (x2 ) FY (y1 ) + FX (x1 ) FY (y1 ) =
(FX (x2 ) FX (x1 )) (FY (y2 ) FY (y1 )) = P (x1 < X x2 ) P (y1 < Y y2 ) :
În general: !
n
\ Yn
X1 ; X2 ; :::; Xn sunt independente () P Xi 2 Ai = P (Xi 2 Ai ) ; 8A1 ; :::; An
i=1 i=1
intervale sau mulţimi cu un singur element din R:
Aici Xi 2 Ai = f! 2 jXi (!) 2 Ai g.
De…niţia 3.3. a) Funcţia mas¼a de probabilitate comun¼a a variabilelor
aleatoare discrete X şi Y este de…nit¼
a de
Propriet¼ aţi 3.2. Fie X şi Y variabile aleatoare discrete care iau o mulţime
cel mult num¼ arabil¼a de perechi de valori (xi ; yj ) ; i; j = 1; 2; ::: cu probabilit¼
aţi
nenule.
a) pXY (x; y) = 0 peste tot, exceptând punctele (xi ; yj ) ; i; j = 1; 2; ::: unde
ia valori egale cu probabilitatea comun¼ a P (X = xi \ Y = yj ) :
b) X
0 <X pXY (xi ; yj ) 1;
c) pXY (xi ; yj ) = 1;
i j
X
d) pXY (xi ; y) = pY (y) ;
i
X
e) pXY (x; yj ) = pX (x) ;
j
X X
f) FXY (x; y) = pXY (xi ; yj ) ; 8x; y 2 R:
ijxi x jjyj y
Acum pX (x) şi pY (y) sunt numite funcţii mas¼a de probabilitate marginale.
Propriet¼
aţi similare pot … scrise pentru pX1 X2 :::Xn :
De…niţia 3.4. a) Funcţia densitate de probabilitate comun¼a a dou¼
a variabile
aleatoare continue X şi Y este de…nit¼ a de derivata parţial¼
a
@ 2 FXY
fXY (x; y) = (x; y) ;
@x@y
dac¼
a exist¼
a.
24
b) Fie vectorul aleator X cu componente variabilele aleatoare continue X1 ; X2 ; :::; Xn
care au funcţia de repartiţie comun¼
a
FX (x) = P (X1 x1 \ X2 x2 \ ::: \ Xn xn ) ;
unde x este vectorul cu componentele x1 ; x2 ; :::; xn :
Funcţia densitate comun¼a corespunz¼
atoare este
@ n FX
fX (x) = (x) ;
@x1 @x2 :::@xn
dac¼
a derivatele parţiale indicate exist¼
a.
Propriet¼ aţi 3.3. a) fXY (x; y) 0 deoarece FXY este cresc¼
atoare în x şi y.
b) Din de…niţie,
Z y Z x
FXY (x; y) = P (X x \ Y y) = fXY (u; v) dudv:
1 1
c) Dac¼
a x1 < x2 şi y1 < y2 , atunci Z Z
y2 x2
P (x1 < X x2 \ y1 < Y y2 ) = fXY (x; y) dxdy:
y1 x1
d) fXY de…neşte o suprafaţ¼ a deasupra planului (x; y). Dup¼ a cum indic¼ a
proprietatea 3.3 c), probabilitatea ca variabilele aleatoare X şi Y s¼
a se a‡e
într-o anumit¼
a suprafaţ¼
a R este egal¼
a cu volumul de sub suprafaţa fXY m¼ arginit
de acea regiune, ca în …gura de mai jos.
25
Z 1 Z 1
e) fXY (x; y) dxdy = 1:
1 1
Aceast¼a proprietate rezult¼
a din proprietatea b) punând x ! 1 şi y ! 1 şi
arat¼
aZc¼
a volumul total de sub suprafaţa fXY este 1:
1
f) fXY (x; y) dy = fX (x) :
1
Aceasta rezult¼
a din Z 1 Z x
FX (x) = FXY (x; 1) = fXY (u; y) dudy;
1 1
derivând
Z 1 în raport cu x:
g) fXY (x; y) dx = fY (y) :
1
Densit¼
aţile fX şi fY din propriet¼
aţile f) şi g) se numesc densit¼aţi marginale
ale lui X, respectiv Y:
26
FXY (xjy) = P (X xjY = y) :
Fie X şi Y variabile aleatoare continue. Funcţia densitate de repartiţie
condiţionat¼a (pe scurt densitate condiţionat¼a ) a lui X dat …ind Y = y, no-
tat¼a fXY (xjy) este derivata funcţiei de repartiţie condiţionat¼
a corespunz¼
atoare
ei, adic¼
a
fXY (xjy) = dFXYdx(xjy) :
Avem, pentru x1 < x2 şi y1 < y2 : Z Z y2 x2
fXY (u;v)dudv
P (x1 <X x2 \y1 <Y y2 ) y1
Z x1
P (x1 < X x2 jy1 < Y y2 ) = P (y1 <Y y2 ) = y2 :
fY (v)dv
y1
Punând x1 !Z 1; x2 = x; y2 & y1 = y, obţinem:
x
fXY (u;y)du
1
FXY (xjy) = fY (y) ;
cu condiţia ca fY (y) 6= 0:
Mai departe obţinem
(3.1) fXY (xjy) = dFXYdx(xjy) = fXY (x;y)
fY (y) , dac¼
a fY (y) 6= 0:
Pentru funcţia de repartiţie condiţionat¼ a nu e valabil¼a o formul¼
a asem¼an¼
a-
toare, adic¼a FXY (xjy) 6= FXY (x;y)
FY (y) :
Când X şi Y sunt independente avem FXY (xjy) = FX (x) şi din relaţia (3.1)
obţinem
fXY (xjy) = fX (x)
şi
fXY (x; y) = fX (x) fY (y) ;
adic¼
a densitatea comun¼ a e egal¼ a cu produsul densit¼aţilor marginale când X
şi Y sunt independente.
Mai avem şi Z
x
FXY (xjy) = fXY (ujy) du:
1
Extinderile pentru mai multe variabile aleatoare sunt imediate. Plecând de
la
P (A \ B \ C) = P (AjB \ C) P (BjC) P (C)
pentru trei evenimente A; B şi C, avem în cazul a trei variabile aleatoare
continue X; Y şi Z;
fXY Z (x; y; z) = fXY Z (xjy; z) fY Z (yjz) fZ (z) :
Pentru cazul a n variabile aleatoare continue X1 ; X2 ; :::; Xn , componente ale
vectorului aleator X, putem scrie
fX (x) = fX1 X2 :::Xn (x1 jx2 ; :::; xn ) fX2 :::Xn (x2 jx3 ; :::; xn ) :::fXn 1 Xn (xn 1 jxn ) fXn (xn ) :
Dac¼ a X1 ; X2 ; :::; Xn sunt independente, obţinem
fX (x) = fX1 (x1 ) fX2 (x2 ) :::fXn (xn ) :
Formula lui Bayes pentru densit¼ aţi de repartiţie. Dac¼ a X şi Y sunt
variabile aleatoare continue, atunci
27
fY X (yjx)fX (x) fY X (yjx)fX (x)
fXY (xjy) = fY (y) =Z 1 ;
fY X (yj )fX ( )d
1
dac¼
a fY (y) 6= 0:
3.3 Covarianţ¼
a şi corelaţie
Fie X şi Y variabile aleatoare discrete care iau o mulţime cel mult num¼ arabil¼
a
de perechi de valori (xi ; yj ) ; i; j = 1; 2; ::: cu probabilit¼ aţi nenule sau variabile
aleatoare continue.
De…niţia 3.5. Fie n; m 2 N:
a) Momentele comune nm ale variabilelor aleatoare X şi Y sunt date de,
dac¼a exist¼
a, 8 XX
>
> xm n
i yj pXY (xi ; yj ) , dac¼a X şi Y sunt discrete,
<
n m Z i jZ
nm = E (X Y ) = 1 1
>
>
: xn y m fXY (x; y) dxdy, dac¼ a X şi Y sunt continue.
1 1
b) Similar, momentele centrate comune ale lui X şi Y , când exist¼
a, sunt date
de
n m
nm = E ((X mX ) (Y mY ) ) :
Observaţii. Cu notaţiile folosite aici, mediile lui X şi Y sunt 10 , respectiv,
01 . De exemplu, folosind
Z Z de…niţia 3.5 a) pentru XZ şi Y continue,
Z obţinem
1 1 1 1
10 = E (X) = xfXY (x; y) dxdy = x fXY (x; y) dydx =
Z 1
1 1 1 1
28
Proprietatea 3.5. j j 1:
2 2
Demonstraţie. [t (X mX ) + Y mY ] 0; 8t 2 R =) E [t (X mX ) + Y mY ] =
2 2 2
20 t
+ 2 11 t + 02 0; 8t 2 R =) =4 4 20 02 11 0 =) 11
20 02=) j j 1:
Coe…cientul de corelaţie este f¼ ar¼
a dimensiune. El este şi independent de
origine, adic¼
a 8a1 ; a2 ; b1 ; b2 2 R cu a1 ; a2 > 0 se poate demonstra c¼a
(a1 X + b1 ; a2 Y + b2 ) = (X; Y ) :
Proprietatea 3.6. Dac¼ a X şi Y sunt independente, atunci
11 = 0 şi = 0:
Demonstraţie. Fie Z X Zşi Y continue. Z Z
1 1 1 1
indep.
11 = E (XY ) = xyfXY (x; y) dxdy = xyfX (x) fY (y) dxdy =
Z 1 Z 1 1 1 1 1
29
P (X 2\Y 1) 6= P (X 2) P (Y 1) =) X şi Y nu sunt inde-
pendente.
Coe…cientul de corelaţie m¼ asoar¼
a interdependenţa liniar¼a a variabilelor aleatoare,
adic¼a acurateţea cu care o variabil¼ a aleatoare poate … aproximat¼ a printr-o
funcţie liniar¼a de cealalt¼
a. Pentru a vedea asta, consider¼ am problema
aproxim¼ arii unei variabile aleatoare X printr-o funcţie liniar¼
a de o a doua vari-
abil¼a aleatoare Y , aY + b, unde a şi b sunt alese a. î. eroarea medie p¼ atratic¼
ae
de…nit¼ a de
2
(3.3) e = E [X (aY + b)]
este minim¼ a. Avem
e = E X 2 + a2 Y 2 + b2 2aXY 2bX + 2abY = E X 2 + a2 E Y 2 +
b2 2aE (XY ) 2bmX + 2abmY ;
@e 2
@a = 2aE Y 2E (XY ) + 2bmY ;
@e
@b = 2b 2m X + 2amY :
Rezolvând sistemul
@e
@a = 0;
@e
@b = 0;
obţinem c¼ a minimul e atins când
a = XY
şi
b = mX amY :
Înlocuind aceste valori în relaţia (3.3) obţinem eroarea medie p¼ atratic¼a
minim¼ a 2X 1 2
. Vedem c¼ a o potrivire exact¼ a în sensul mediei p¼ atratice e
atins¼ a când j j = 1 şi aproximarea liniar¼ a este cea mai rea când = 0: Când
= 1, X şi Y se numesc pozitiv perfect corelate, în sensul c¼ a valorile pe care le
iau sunt pe o dreapt¼ a cu pant¼a pozitiv¼a; ele sunt negativ perfect corelate când
= 1 şi valorile lor se a‡a¼ pe o dreapt¼ a cu pant¼a negativ¼
a. Aceste dou¼ a cazuri
extreme sunt ilustrate în …gura de mai jos.
30
Valoarea lui j j descreşte când împr¼
aştierea valorilor în jurul dreptelor creşte.
În demonstraţia faptului c¼ a j j 1; am obţinut
2
11 20 02 :
Folosind un procedeu similar, putem ar¼ ata de asemenea c¼ a
E 2 (XY ) E X2 E Y 2 :
Ultimele dou¼ a relaţii sunt inegalit¼aţile lui Schwarz.
De…niţia 3.8. Fie X un vector coloan¼ a aleator cu componentele X1 ; X2 ; :::; Xn
şi mX vectorul coloan¼ a având componente mediile lui X1 ; X2 ; :::; Xn : Matricea
de covarianţ¼a este 0 1
var (X1 ) cov (X1 ; X2 ) ::: cov (X1 ; Xn )
B cov (X2 ; X1 ) var (X2 ) ::: cov (X2 ; Xn ) C
T B C
= E (X mX ) (X mX ) =B .. .. . .. C:
@ . . .. . A
cov (Xn ; X1 ) cov (Xn ; X2 ) ::: var (Xn )
este o matrice n n cu având pe diagonal¼ a varianţe şi în afara diagonalei
covarianţe. Deoarece cov (Xi ; Xj ) = cov (Xj ; Xi ), matricea de covarianţ¼ a este
simetric¼
a.
Urm¼ atorul rezultat este o generalizare a relaţiei (3.2).
Teorem¼ a. Dac¼a X1 ; X2 ; :::; Xn sunt independente, atunci
E (g1 (X1 ) g2 (X2 ) :::gn (Xn )) = E (g1 (X1 )) E (g2 (X2 )) :::E (gn (Xn )) ;
unde gj (Xj ) este o funcţie arbitrar¼ a de Xj . Se presupune c¼ a toate mediile
care sunt scrise exist¼
a.
Xn
Propoziţie. Fie X1 ; X2 ; :::; Xn variabile aleatoare şi Y = Xi : Atunci
i=1
31
n
X X
2 2
Y = Xi +2 cov (Xi ; Xj ) :
i=1 1 i<j n
În particular, dac¼
a X1 ; X2 ; :::; Xn sunt independente, atunci
Xn
2 2
Y = Xi :
i=1
Lema 3.1. Dac¼
a X e un vector aleator şi Y =AX, atunci
32
4 Principalele repartiţii discrete şi propriet¼
aţile
lor
4.1 Repartiţia binomial¼
a
O succesiune de probe e f¼ acut¼ a astfel încât
a) pentru …ecare prob¼ a sunt doar dou¼ a rezultate posibile, s¼
a spunem succes
şi eşec;
b) probabilit¼
aţile apariţiei acestor rezultate r¼
amân aceleaşi pe durata pro-
belor;
c) probele sunt independente.
Probele f¼acute în aceste condiţii se numesc probe Bernoulli.
Not¼ am evenimentul "succes" cu S şi evenimentul "eşec" cu F . Fie P (S) = p
şi P (F ) = q, unde p + q = 1: Rezultate posibile din efectuarea unei succesiuni
de probe Bernoulli pot … reprezentate simbolic prin
S \ S \ F \ F \ S \ F \ S \ S \ S \ ::: \ F \ F
F \ S \ F \ S \ S \ F \ F \ F \ S \ ::: \ S \ F
..
.
şi, datorit¼
a independenţei, probabilit¼aţile acestor rezultate posibile sunt uşor
de calculat. De exemplu,
P (S \ S \ F \ F \ S \ F \ :::F \ F ) = P (S) P (S) P (F ) P (F ) P (S) P (F ) :::P (F ) P (F ) =
ppqqpq:::qq:
Repartiţia unei variabile aleatoare X reprezentând num¼ arul de succese
dintr-o succesiune de n probe Bernoulli, indiferent de ordinea în care apar este
frecvent de interes considerabil. E clar c¼ a X e o variabil¼ a aleatoare discret¼ a
care ia valorile 0; 1; 2; :::; n. Pentru a determina funcţia mas¼ a de probabilitate,
consider¼ am pX (k), probabilitatea de a avea exact k succese în n probe. Acest
eveniment poate ap¼ area în la fel de multe moduri precum num¼ arul de submulţimi
de k elemente ale unei mulţimi de n elemente. De aici, num¼ arul de moduri în
care k succese se pot întâmpla în n probe este
Cnk = k!(nn! k)!
şi probabilitatea asociat¼ a cu …ecare mod este pk q n k : Din acest motiv avem
pX (k) = Cnk pk q n k
; k = 0; 1; 2; :::; n: (4.1)
Datorit¼a similarit¼
aţii cu termenii binomului lui Newton
Xn
n
(a + b) = Cnk ak bn k ;
k=0
repartiţia de…nit¼a de relaţia (4.1) se numeşte repartiţie binomial¼a. Ea are
doi parametri, anume n şi p. O variabil¼ a aleatoare X având repartiţie binomial¼a
se noteaz¼ a X B (n; p).
Forma unei repartiţii binomiale e determinat¼ a de valorile celor doi parametri
ai ei, n şi p. În general, n se d¼a ca o parte a problemei şi p trebuie estimat din
observaţii.
33
O reprezentare a funcţiei mas¼ a de probabilitate pX (k) pentru n = 10 şi
p = 0; 2 este în …gura de mai jos.
34
35
Calculul lui pX (k) devine greu când n devine mare; se foloseşte aproximarea
Poisson a repartiţiei binomiale.
Funcţia de repartiţie FX (x) pentru o repartiţie binomial¼
a este dat¼
a de
[x]
X
FX (x) = Cnk pk q n k ;
k=0
unde [x] este partea întreag¼
a a lui x.
Propriet¼ aţi 4.1. Fie X B (n; p). Atunci
a) mX = np;
b) 2X = npq:
Xn n
X n
X
n!
Demonstraţie. a) mX = kpX (k) = kCnk pk q n k
= k k n k
k!(n k)! p q =
k=0 k=1 k=1
n
X n
X n
X1
(n 1)! 1 k 1 n 1 (k 1) k 1=i
n k n k
(k 1)!(n 1 (k 1))! p q = np Cnk 1p q = np Cni 1p
i n 1 i
q =
k=1 k=1 i=0
n 1
np (p + q) = np:
Xn n
X n
X
b) E X 2 = k 2 pX (k) = k 2 Cnk pk q n k
= np kCnk 1 k 1 n 1 (k 1)
1p q =
" n k=0 k=1
n
k=1 #
X X k 1=i; a)
np (k 1) Cnk 11 pk 1 n 1 (k 1)
q + Cnk 1 k 1 n 1 (k 1)
1p q =
k=1 k=1
36
n
!
X1 a)
np iCni 1 pi q n 1 i +1 = np (mY + 1) = np [(n 1) p + 1] ;
i=0
unde Y B (n 1; p) :
2 2
X = E X m2X = np [(n 1) p + 1] n2 p2 = n2 p2 np2 + np n2 p2 =
np (1 p) = npq:
Faptul c¼ a mX = np sugereaz¼ a c¼
a parametrul p poate … estimat pe baza
valorii medii a datelor observate.
O alt¼a formulare care duce la repartiţia binomial¼ a este de…nirea variabilei
aleatoare Xj ; j = 1; 2; :::; n, reprezentând rezultatul celei de-a j-a probe Bernoulli.
Dac¼ a punem
0, dac¼a proba j este un eşec,
Xj =
1; dac¼a proba j este un succes,
atunci
X = X1 + X2 + ::: + Xn
d¼a num¼ arul de succese în n probe. Din de…niţie, X1 ; X2 ; :::; Xn sunt variabile
aleatoare independente.
Deoarece
E (Xj ) = 0 q + 1 p = p; j = 1; 2; :::; n;
rezult¼a c¼
a
E (X) = E (X1 + X2 + ::: + Xn ) = E (X1 )+E (X2 )+:::+E (Xn ) = p + p + ::: + p =
| {z }
n
np;
ceea ce coincide cu proprietatea 4.1 a).
Analog, deoarece
E Xj2 = 02 q + 12 p = p; j = 1; 2; :::; n;
2 2 2
Xj = E Xj [E (Xj )] = p p2 = p (1 p) = pq; j = 1; 2; :::; n;
din independenţa lui X1 ; X2 ; :::; Xn rezult¼
a c¼
a
Xn
2 2
X = Xj = pq
|
+ pq + ::: + pq = npq;
{z }
j=1 n
ceea ce coincide cu proprietatea 4.1 b).
Teorema 4.1. Fie X1 B (n1 ; p) şi X2 B (n2 ; p) variabile aleatoare
independente şi Y = X1 + X2 : Atunci Y B (n1 + n2 ; p) :
37
4.3 Repartiţia geometric¼
a
Fie X num¼ arul de probe Bernoulli pân¼ a la (şi incluzând) prima apariţie a succe-
sului. X e variabil¼a aleatoare discret¼
a având ca valori toate numerele naturale.
Funcţia ei mas¼a0de probabilitate este1
38
!
1
X h i
1 d2 2 q 2 q2 2q(1 q)+q 2
p +pq dq 2 q k
= p1 +pq dq
d
2 1 q q = p1 +pq dq
d
2 1 q = p1 +pq dq
d
(1 q)2
=
k=2
1 d 2q q 2 1 (2 2q)(1 q)2 +(2q q 2 )2(1 q) 1 2((1 q)2 +2q q 2 )
p + pq dq (1 q)2
= p + pq (1 q)4
= p +q (1 q)2
=
1 2q
p + (1 q)2
:
2 2 1 2q 1 p+2q 1 q 1 p
X =E X2 [E (X)] = p + p2 p2 = p2 = p2 = p2 :
pX (k) = Ckr 1 r k r
1p q ;k = r; r + 1; :::: (4.2)
Repartiţia de…nit¼a de relaţia (4.2) se numeşte repartiţie binomial¼a negativ¼a
sau Pascal şi are parametrii r şi p. Este adesea notat¼ a prin N B (r; p). Observ¼ am
c¼
a ea se reduce la repartiţia geometric¼ a când r = 1:
O variant¼ a a acestei repartiţii se obţine punând Y = X r: Variabila
aleatoare Y este num¼ arul de probe Bernoulli dincolo de r necesare pentru re-
alizarea celui de-al r-lea succes, sau poate … interpretat¼ a ca num¼ arul de eşecuri
înainte de cel de-al r-lea succes.
Funcţia mas¼ a de probabilitate a lui Y , pY (m), e obţinut¼ a din relaţia (4.2)
înlocuind k prin m + r :
r 1 r m m r m
pY (m) = Cm+r 1p q = Cm+r 1 p q ; m = 0; 1; 2; ::::
Variabila aleatoare Y are p;roprietatea convenabil¼ a c¼a valorile ei încep de la
0 şi nu de la r ca valorile lui X:
Reamintind o de…niţie mai general¼ a a coe…cientului binomial
Caj = a(a 1):::(a
j!
j+1)
; 8a 2 R; j 2 N ;
avem
(m+r 1)! (m+r 1)(m+r 2):::r m
m
Cm+r 1 = m!(r 1)! = m! = ( 1) ( r)( r 1):::( m!
r m+1)
=
m m
( 1) C r :
De aici,
m
pY (m) = C mr pr ( q) ; m = 0; 1; 2; :::;
39
acesta …ind motivul pentru numele "repartiţie binomial¼ a negativ¼
a".
Media şi dispersia variabilei aleatoare X pot … determinate observând c¼ aX
poate … reprezentat¼ a prin
X = X1 + X2 + ::: + Xr ;
unde Xj este num¼ arul de probe dintre cel de-al (j 1)-lea şi (inclusiv) cel
de-al j-lea succes. Aceste variabile aleatoare sunt independente, …ecare având
a în care media este p1 şi dispersia 1p2p . De aceea media
repartiţie geometric¼
sumei este suma mediilor şi, din independenţ¼ a, dispersia sumei este suma dis-
persiilor, adic¼
a:
mX = pr ; 2X = r(1p2 p) :
Deoarece Y = X r, avem:
mY = pr r; 2Y = r(1p2 p) :
40
4.6 Repartiţia Poisson
Aceast¼ a repartiţie este folosit¼ a în modelele matematice pentru a descrie, într-un
interval de timp speci…c, evenimente ca emisia de particule dintr-o substanţ¼ a
radioactiv¼ a, sosirile de pasageri la un aeroport, distribuţia particulelor de praf
într-un anumit spaţiu, sosirile de maşini la o intersecţie, şi alte fenomene simi-
lare.
Pentru a …xa ideile, consider¼ am problema sosirii pasagerilor la o staţie de
autobuz într-un interval de timp speci…cat. Not¼ am X (0; t) num¼ arul de sosiri
din intervalul de timp [0; t); X (0; t) e o variabil¼ a aleatoare discret¼
a luând valori
posibile 0; 1; 2; :::, iar repartiţia ei depinde de t. Funcţia ei mas¼
a de probabilitate
se scrie
p1 (t; t + t) = t + o ( t) ; (4.5)
unde o ( t) este o funcţie a. î.
o ( t)
lim = 0: (4.6)
t!0t
Aceast¼a ipotez¼
a spune c¼a, pentru t su…cient de mic, probabilitatea de a
avea exact o sosire este proporţional¼
a cu lungimea t. Parametrul din relaţia
(4.5) este numit densitatea medie sau rata medie a sosirilor.
3) Pentru t su…cient de mic,
1
X
pk (t; t + t) = o ( t) : (4.7)
k=2
Determin¼am p0 (0; t). Pentru a nu avea nicio sosire în intervalul [0; t + t),
trebuie s¼
a nu avem nicio sosire în ambele subintervale [0; t) şi [t; t + t). Da-
torit¼
a independenţei sosirilor în intervale nesuprapuse avem
41
p0 (0; t + t) = p0 (0; t) p0 (t; t + t) = p0 (0; t) [1 t + o ( t)] : (4.9)
dp0 (0; t)
= p0 (0; t) :
dt
Soluţia ei satisf¼
acând condiţia iniţial¼
a p0 (0; 0) = 1 este
t
p0 (0; t) = e : (4.10)
Determinarea lui p1 (0; t) este similar¼ a. O sosire în intervalul [0; t + t) poate
… îndeplinit¼
a doar având 0 sosiri în subintervalul [0; t) şi o sosire în [t; t + t),
sau o sosire în [0; t) şi nicio sosire în [t; t + t). De aici avem
dp1 (0; t) t
= p1 (0; t) + e ; p1 (0; 0) = 0; (4.12)
dt
ceea ce conduce la
t
p1 (0; t) = te : (4.13)
Continuând în acest fel, g¼
asim pentru termenul general
k
( t) e t
pk (0; t) = ; k = 0; 1; 2; :::: (4.14)
k!
Relaţia (4.14) d¼a funcţia mas¼a de probabilitate a lui X (0; t), num¼ arul de
sosiri în intervalul de timp [0; t) cu condiţiile de mai sus şi de…neşte o repartiţie
Poisson cu parametrii şi t. Parametrii şi t pot … înlocuiţi de un singur
parametru = t şi astfel putem scrie
k
e
pk (0; t) = ; k = 0; 1; 2; :::: (4.15)
k!
Media lui X (0; t) este
42
1
X 1
X k 1
X k 1
k
E (X (0; t)) = kpk (0; t) = e = e = e e = :
k! (k 1)!
k=0 k=0 k=1
(4.16)
Calcul¼
am şi dispersia: " #
X1 1
X 1
X 1
X 1
X
k 2 k
k k (k 1) k k
E X 2 (0; t) = k 2 pk (0; t) = e k! =e (k 1)! =e (k 1)! + (k 1)! =
" 1
k=0
1
# k=0 k=1 k=1 k=1
X k 2
X k 1
2 2 2
e (k 2)! + (k 1)! = e e + e = + :
k=2 k=1
2 2
X(0;t) = E X 2 (0; t) [E (X (0; t))] = : (4.17)
Din relaţia (4.16) se vede c¼ a parametrul este egal cu media num¼ arului de
sosiri pe unitatea de timp; numele "rata medie a sosirilor" pentru este astfel
justi…cat. În determinarea valorii acestui parametru într-o problem¼ a dat¼ a, el
poate … estimat din observaţii prin m n , unde m este num¼ a rul observat de sosiri
în n unit¼ aţi de timp. Similar, deoarece = t, reprezint¼ a num¼ arul mediu de
sosiri în intervalul de timp [0; t) :
Din relaţiile (4.16) şi (4.17) se vede c¼a media şi dispersia cresc când rata
medie creşte. În …gura al¼ aturat¼
a e reprezentat¼a funcţia mas¼ a de probabilitate
pentru repartiţia Poisson pentru
a) = 0; 5;
b) = 1;
c) = 4:
43
În general, dac¼a examin¼ am raportul pkpk (0;t)
1 (0;t)
, cum am f¼
acut la repartiţia
binomial¼a, se arat¼
a c¼
a pk (0; t) creşte şi apoi descreşte când k creşte,
atingându-şi maximul când k = [ ] :
44
Tabelul A.2 din …gurile de mai jos d¼ a funcţia mas¼a de probabilitate a repar-
tiţiei Poisson pentru anumite valori ale lui dintre 0; 1 şi 10. Pentru = 10,
avem p23 (0; t) = 0; 0002 şi p24 (0; t) = 0; 0001. În loc de " t" în tabelul A.2 se
va citi " ".
45
Teorema 4.2. Dac¼ a X şi Y sunt variabile aleatoare independente având
repartiţii Poisson cu parametrii 1 , respectiv 2 , atunci variabila aleatoare Y =
X1 + X2 are repartiţie Poisson cu parametrul 1 + 2 .
Propoziţie. Dac¼ a o variabil¼ a aleatoare X este repartizat¼ a Poisson cu para-
metrul , atunci o variabil¼ a aleatoare Y , care este obţinut¼ a din X selectând
doar cu probabilitatea p …ecare din itemii num¼ araţi de X, este de asemenea
repartizat¼ a Poisson cu parametrul p :
Demonstraţie. Dat …ind c¼ a X = r, repartiţia lui Y este binomial¼ a cu
parametrii r şi p, deci:
r k
P (Y = kjX = r) = Crk pk (1 p) ; k = 0; 1; 2; :::; r:
Din teorema probabilit¼ aţii totale avem
1
X X1
k r k r r=n+k
P (Y = k) = P (Y = kjX = r) P (X = r) = Crk p (1 p) r! e
=
r=k r=k
1
X 1
X
k pk (1 p)n n+k e (p )k e [(1 p) ]n (p )k e e(1 p)
(p )k e p
Cn+k (n+k)! = k! n! = k! = k! ; k=
n=0 n=0
0; 1; 2; ::::
Aceast¼ a propoziţie poate … folosit¼
a, de exemplu, pentru situaţii în care Y e
num¼ arul de urmaşi ai unei insecte când X e num¼ arul de ou¼a depuse, sau Y e
num¼ arul de uragane dezastruoase când X e num¼ arul total de uragane care apar
într-un an dat, sau Y e num¼ arul pasagerilor care nu pot urca la bordul unui
zbor dat din cauza suprarezerv¼ arilor, când X este num¼ arul de sosiri de pasageri.
46
şi este rezonabil s¼a presupunem c¼ a probabilitatea de a g¼asi k defecte în orice
regiune depinde numai de volum şi nu de forma regiunii.
Alte situaţii …zice în care repartiţia Poisson e folosit¼a includ num¼ arul de
bacterii pe o plac¼ a Petri, repartiţia fertilizatoarelor împr¼
aştiate cu avionul pe
un câmp şi repartiţia poluanţilor industriali într-o regiune dat¼ a.
Deoarece
c n
lim 1 + n = ec ;
n!1
avem
n k+ 21
n 1 1 1
lim n k = n k+ 1
= n k+ 1
= e k ;
n!1 lim (1 k
) 2 lim 2
n!1 n n n!1 n
lim
n!1
(1 k
n )
n k
h n
i lim n
n
k
n!1
lim 1 n = lim 1 n =e :
n!1 n!1
Obţinem
k
e
pX (k) = k! ; k = 0; 1; ::::
Aceast¼ a aproximare Poisson a repartiţiei binomiale uşureaz¼a calculele şi se
foloseşte în practic¼a atunci când n > 10 şi p < 0; 1. Repartiţia Poisson îşi
g¼
aseşte aplicabilitate în acest caz în probleme în care probabilitatea apariţiei
unui eveniment este mic¼ a. De aceea, repartiţia Poisson se mai numeşte adesea
repartiţia evenimentelor rare.
47
5 Principalele repartiţii continue, cu densit¼
aţi
de repartiţie şi propriet¼
aţile lor
5.1 Repartiţia uniform¼
a
O variabil¼
a aleatoare continu¼ a X are repartiţie uniform¼a pe un interval de la
a la b (b > a) dac¼ a este egal probabil s¼ a ia orice valoare din acest interval.
Densitatea lui X este constant¼ a pe intervalul [a; b] şi are forma
c; dac¼a x 2 [a; b] ;
fX (x) =
0; altfel.
Deoarece
Z 1 Z a Z b Z 1
fX (x) dx = 0dx + cdx + 0dx = 0 + cxjba + 0 = c (b a) ;
1 1 a b
din condiţia
Z 1
fX (x) dx = 1
1
obţinem
c = b 1a :
Deci
1
fX (x) = b a; dac¼ a x 2 [a; b] ;
(5.1)
0; altfel.
Dup¼ a cum vedem din …gura de mai jos, este constant¼ a pe [a; b] şi în¼
alţimea
a …e b 1 a pentru ca aria de sub densitate s¼
trebuie s¼ a …e 1:
48
8 Z x
>
>
0du = 0; dac¼a x < a;
>
>
>
Z x < Z
> Zax
1
1 u x x a
FX (x) = fX (u) du = 0du + b a du = 0 + b a ja = b a , dac¼
a x 2 [a; b] ;
1 >
> Z 1 Z a Z
> a
> b x
>
> 1
: 0du + b a du + 0du = 0 + 1 + 0 = 1, dac¼
a x > b:
1 a b
Deci
8
< 0; dac¼a x < a;
x a
FX (x) = , dac¼
a x 2 [a; b] ; (5.2)
: b a
1, dac¼
a x > b;
ceea ce este prezentat gra…c în …gura urm¼
atoare.
49
pe întinderea podului. Adesea se ataşeaz¼a o repartiţie uniform¼
a unei anumite
variabile aleatoare din cauza unei lipse de informaţie, dincolo de cunoaşterea
intervalului de valori.
1
fXY (x; y) = fX (x) fY (y) = (b1 a1 )(b2 a2 ) , pentru x 2 [a1 ; b1 ] şi y 2 [a2 ; b2 ] ;
0, altfel.
(5.3)
Ia forma unei suprafeţe plate m¼
arginit¼
a de [a1 ; b1 ] de-a lungul axei Ox şi
[a2 ; b2 ] de-a lungul axei Oy.
Z " #
x 2
1 (u m)
FX (x) = p exp 2
du; 1 < x < 1: (5.5)
2 1 2
Ea nu poate … exprimat¼
a analitic, dar poate … evaluat¼
a numeric pentru orice
x.
Densitatea şi funcţia de repartiţie din relaţiile (5.4) şi (5.5) sunt reprezentate
gra…c în …gurile (a), respectiv (b) urm¼ atoare, pentru m = 0 şi = 1:
50
Gra…cul densit¼ aţii fX în acest caz particular este o curb¼
a în form¼
a de clopot,
simetric¼
a în jurul originii.
Calcul¼amZmedia şi dispersia lui X.Z
1 1 h i x m
=u
(x m)2
E (X) = xfX (x) dx = p12 x exp 2 2 dx =
1 1 2 3
Z 1 6 Z 1 Z 1 7
u2 6 u2 u2 7
p1 ( u + m) exp du = p1 6 u exp du + m exp du7 =
2 2 2 4 2 2 5
1 1 1
| {z }
im par¼
a
p
p1 0 + m 2 = m:
2 Z 1 Z 1 h i x m
=u
2 1 2 (x m)2
var (X) = [x E (X)] fX (x) dx = p
2
(x m) exp 2 2 dx =
Z 1 1 Z 1 1 Z 1 0
2 2
p1 2 2 u u2 2
u2
2
u exp 2 du = p2 u2 exp 2 du = p
2
u exp 2 du =
1 Z 1 1 1
2
u2 1 u2 2 p 2
p
2
u exp 2 j 1 exp 2 du = p
2
0 2 = :
1
Vedem astfel c¼ a cei doi parametri m şi din repartiţie sunt media şi re-
spectiv deviaţia standard a lui X. Aceast¼ a observaţie justi…c¼
a alegerea noastr¼
a
a acestor simboluri speciale pentru ei şi de asemenea pune în evidenţ¼ a o pro-
prietate important¼ a a repartiţiei normale - cunoaşterea mediei şi dispersiei ei
51
caracterizeaz¼a complet repartiţia normal¼ a. Deoarece ne vom referi frecvent la
repartiţia normal¼ am cu N m; 2 : De exemplu, X N (0; 9) înseamn¼
a, o not¼ a
c¼
a X are densitatea dat¼ a de relaţia (5.4) cu m = 0 şi = 3.
Se poate ar¼ a momentele centrate ale lui X N m; 2 sunt
ata c¼
0, dac¼
a n e impar,
= (5.6)
n 1 3 ::: (n 1) n , dac¼
a n e par.
Coe…cientul de exces 2 = 44 3 este 0 pentru o repartiţie normal¼
a. De
aceea ea este folosit¼
a ca repartiţie de referinţ¼
a pentru 2 .
52
5.2.2 Tabele de probabilit¼
aţi
Datorit¼ a importanţei sale, suntem adesea puşi în situaţia s¼a evalu¼
am probabil-
it¼
aţile asociate cu o variabil¼a aleatoare normal¼ a X N m; 2 , ca
Z b " #
2
1 (x m)
P (a < X b) = p exp dx: (5.7)
2 a 2 2
Integrala de mai sus nu poate … calculat¼ a analitic şi este în general calcu-
lat¼
a numeric. Pentru comoditate sunt date tabele care ne permit s¼ a calcul¼
am
probabilit¼
aţi ca cea din relaţia (5.7).
Tabelarea funcţiei de repartiţie pentru repartiţia normal¼a cu m = 0 şi = 1
este dat¼
a în tabelul A.3 din …gura urm¼ atoare.
FU ( u) = 1 FU (u) : (5.8)
53
Mai întâi, tabelul împreun¼
a cu relaţia (5.8) pot … folosite pentru a determina
P (a < U b) pentru orice a şi b. De exemplu,
(5.8) tab el
P ( 1; 5 < U 2; 5) = FU (2; 5) FU ( 1; 5) = FU (2; 5) [1 FU (1; 5)] =
0; 9938 1 + 0; 9332 = 0; 927:
Mai important, tabelul şi relaţia (5.8) sunt de asemenea su…ciente pentru a
determina probabilit¼aţile asociate cu variabilele aleatoare normale cu medii si
dispersii arbitrare.
Teorema 5.2. Fie X N m; 2 . Atunci X m N (0; 1), adic¼ a
X m
U= : (5.9)
2
Teorema 5.2 implic¼
a faptul c¼
a, dac¼
aX N m; , atunci
a m b m
P (a < X b) = P (a < U + m b) = P <U : (5.10)
(5.10) (5.8)
P (m k <X m+k ) = P ( k <U k) = FU (k) FU ( k) = 2FU (k) 1:
(5.11)
Observ¼ am c¼a rezultatul din exemplul 5.1 este independent de m şi şi
este funcţie doar de k. Astfel, probabilitatea ca X s¼a ia valori între k deviaţii
standard în jurul mediei sale depinde numai de k şi este dat¼a de ecuaţia (5.11).
Se vede din tabel c¼ a aproximativ 68; 3%; 95; 5% şi 99; 7% din aria de sub o
densitate normal¼ a se a‡a¼ în zonele m ; m 2 , respectiv m 3 , dup¼ a cum
se vede din …gurile (a)-(c) urm¼ atoare.
54
De exemplu, şansele sunt de aproximativ 99; 7% ca o mostr¼
a selectat¼
a aleator
dintr-o repartiţie normal¼
a s¼
a …e în regiunea m 3 (…gura (c)).
( " #)
2 2
1 1 x mX (x mX ) (y mY ) y mY
fXY (x; y) = p exp 2)
2 + ;
2 X Y 1 2 2 (1 X X Y Y
(5.12)
unde ( 1; 1) < (x; y) < (1; 1). Relaţia (5.12) descrie repartiţia nor-
mal¼a bivariat¼a. Sunt cinci parametri asociaţi cu ea: mX ; mY ; X (> 0) ; Y
(> 0) ; şi (j j 1). O reprezentare gra…c¼
a tipic¼a a acestei densit¼
aţi, pentru
mX = mY = 0 şi X = Y este în …gura urm¼ atoare.
55
Densitatea marginal¼
a a variabilei aleatoare X este
Z " #
1 2
1 (x mX )
fX (x) = fXY (x; y) dy = p exp 2 ; 1 < x < 1:
1 X 2 2 X
( " #) ( " #)
2 2
1 (x mX ) 1 (x mY )
fXY (x; y) = p exp 2
p exp 2 = fX (x) fY (y) ;
X 2 2 X Y 2 2 Y
adic¼
a X şi Y sunt independente.
56
Aceast¼a proprietate nu este valabil¼ a în general.
Avem repartiţie normal¼a multivariat¼a când cazul a dou¼ a variabile aleatoare
e extins la cel implicând n variabile aleatoare.
Fie n variabile aleatoare, X1 ; X2 ; :::; Xn . Ele se numesc comun normale dac¼ a
densitatea lor comun¼ a e de forma
n 1 1 T 1
fX1 X2 :::Xn (x1 ; x2 ; :::; xn ) = fX (x) = (2 ) 2
j j 2
exp (x m) (x m) ; 1 < x < 1;
2
ij = E ((Xi mi ) (Xj mj )) ;
iar j j este determinantul lui . Din nou vedem c¼ a o repartiţie normal¼ a
comun¼ a este complet speci…cat¼a de momentele comune de ordinul 1 şi 2, aceste
momente determinând de asemenea momentele comune de ordine mai mari ca 2:
Se poate ar¼ata c¼
a, în cazul când variabilele aleatoare X1 ; X2 ; :::; Xn au mediile
0, toate momentele de ordin impar ale lor sunt 0, şi, pentru n par
X
E (X1 X2 :::Xn ) = E (Xm1 Xm2 ) E (Xm2 Xm3 ) :::E Xmn 1 Xmn :
m1 ;:::;mn
n
Suma de mai sus e luat¼ a dup¼
a toate combinaţiile posibile de 2 perechi de n
variabile aleatoare şi are 1 3 5 ::: (n 3) (n 1) termeni.
Y = c1 X1 + c2 X2 + ::: + cn Xn
este repartizat¼
a normal, unde c1 ; c2 ; :::; cn sunt constante.
Teorema 5.5. Fie X1 ; X2 ; :::; Xn n variabile aleatoare repartizate normal
(nu necesar independente). Atunci variabilele aleatoare Y1 ; Y2 ; :::; Ym , unde
n
X
Yj = cjk Xk ; j = 1; 2; :::; m;
k=1
57
5.3 Repartiţia lognormal¼
a
Am v¼ azut c¼ a repartiţii normale rezult¼a din sume de multe acţiuni aleatoare.
Consider¼ am acum un alt fenomen obişnuit care este rezultanta multor efecte
aleatoare multiplicative. Un exemplu de fenomen multiplicativ este studiul de
oboseal¼ a a materialelor unde avaria intern¼ a a materialului la o anumit¼ a etap¼a de
înc¼
arcare este o proporţie aleatoare din avaria de la etapa precedent¼ a. În biolo-
gie, repartiţia m¼arimii unui organism este alt exemplu pentru care creşterea este
subiectul multor impulsuri, …ecare dintre acestea …ind proporţional cu m¼ arimea
momentan¼ a. Alte exemple includ repartiţia m¼ arimii particulelor sub forţe de
impact sau impulsive, repartiţia vieţii componentelor mecanice, repartiţia ven-
iturilor personale datorit¼ a ajust¼
arilor anuale, şi alte fenomene similare.
S¼a consider¼am
Y = X1 X2 :::Xn : (5.13)
Suntem interesaţi de repartiţia lui Y când n devine mare, iar variabilele
aleatoare Xj ; j = 1; 2; :::; n, pot lua numai valori pozitive.
Logaritmând ambii membri, relaţia (5.13) devine
ln Y = ln X1 + ln X2 + ::: + ln Xn :
Din teorema limit¼
a central¼a rezult¼
a c¼a ln Y tinde la o repartiţie normal¼
a
când n ! 1. Repartiţia lui Y este astfel determinat¼a din
Y = eX ; (5.14)
unde X este o variabil¼ a aleatoare normal¼
a.
De…niţia 5.1. Fie X N mX ; 2X . Variabila aleatoare Y = eX se spune
c¼
a are repartiţie lognormal¼a.
Densitatea lui Y este
( h i
1p 1 2
exp 2 2 (ln y mX ) , pentru y > 0;
fY (y) = y X 2 X (5.15)
0, altfel.
58
Parametrii mX şi X care apar în densitatea lui Y sunt media şi deviaţia
standard a lui X, sau ln Y , dar nu ale lui Y . Pentru a obţine o pereche mai
natural¼
a de parametri pentru fY (y), observ¼ am c¼
a, dac¼
a medianele lui X şi Y
sunt notate cu X , respectiv Y , de…niţia medianei unei variabile aleatoare d¼
a
1
2 = P (Y Y ) = P (X ln Y ) = P (X X ) ;
de unde
ln Y = X:
Deoarece, datorit¼
a simetriei repartiţiei normale,
X = m X ;
putem scrie
mX = ln Y :
Scriind X = ln Y , densitatea lui Y poate … scris¼
a
59
( h i
1p
exp 2
1
2 ln2 y
, pentru y > 0;
fY (y) = y ln Y 2 ln Y Y
0, altfel.
În termeni de Y şi ln Y , media şi dispersia lui Y sunt
2
mY = Y exp ln Y
2 ;
2 2 2
Y = mY exp ln Y 1 :
ln y ln Y 1 y
FY (y) = FU = FU ln ; y > 0: (5.16)
ln Y ln Y Y
(n) = (n 1)!; 8n 2 N :
Parametrii distribuţiei gamma sunt şi ; ambii sunt pozitivi. Deoarece
repartiţia gamma este unilateral¼a, cantit¼
aţile …zice care pot lua doar valori poz-
itive sunt frecvent modelate de ea, servind ca model util datorit¼ a versatilit¼
aţii
ei în sensul c¼
a o varietate larg¼
a de forme ale densit¼ aţii gamma poate … obţinut¼ a
variind valorile lui şi , dup¼ a cum arat¼a …gurile (a) şi (b) urm¼ atoare.
60
Observ¼ am din aceste …guri c¼ a determin¼ a forma repartiţiei în timp ce
este un parametru de scar¼ a pentru repartiţie. În general, densitatea gamma
este unimodal¼ a, cu vârful în x = 0 pentru 1 şi în x = 1 pentru > 1:
Se poate ar¼ata c¼
a repartiţia gamma este un model pentru timpul cerut pen-
tru un total de exact sosiri Poisson. Datorit¼ a largii aplicabilit¼
aţi a sosirilor
Poisson, repartiţia gamma are de asemenea numeroase aplicaţii.
Funcţia de repartiţie a variabilei aleatoare X având repartiţia gamma este
8 Z x Z x
< 1 u ( ; x)
fX (u) du = ( ) u e du = ( ) , pentru x > 0;
FX (x) = 0 0
:
0, altfel.
(5.18)
( ; u) este funcţia gamma incomplet¼ a,
Z u
1 x
( ; u) = x e dx;
0
care este de asemenea tabelat¼ a.
Media şi dispersia variabilei aleatoare gamma repartizate X sunt
2
mX = ; X = 2: (5.19)
61
5.4.1 Repartiţia exponenţial¼
a
Când = 1, densitatea gamma dat¼
a de relaţia (5.17) se reduce la forma expo-
nenţial¼
a
e x , pentru x > 0;
fX (x) = (5.20)
0, altfel,
unde > 0 este parametrul repartiţiei. Funcţia de repartiţie, media şi
dispersia ei se obţin din relaţiile (5.18) şi (5.19) punând = 1:
1 e x , pentru x 0;
FX (x) = (5.21)
0, altfel,
1 2 1
mX = ; X = 2: (5.22)
Timpul între sosiri Fie variabila aleatoare X (0; t), num¼ arul de sosiri în
intervalul de timp [0; t) şi presupunem c¼ a este repartizat¼
a Poisson. Fie T vari-
abila aleatoare care d¼ a intervalul de timp dintre 2 sosiri succesive. Funcţia ei
de repartiţie este, din de…niţie
1 P (T > t) , pentru t 0;
FT (t) = P (T t) =
0, altfel.
Evenimentul T > t e echivalent cu evenimentul c¼ a nu e nicio sosire în inter-
valul de timp [0; t), sau X (0; t) = 0. Deoarece, din relaţia (4.10), P (X (0; t) = 0) =
e t , avem
1 e t , pentru t 0;
FT (t) =
0, altfel.
Comparând aceast¼ a expresie cu relaţia (5.21), putem stabili c¼ a timpul între 2
sosiri Poisson succesive are o repartiţie exponenţial¼ a; parametrul din repartiţia
lui T este rata medie a sosirilor Poisson.
Deoarece timpurile între sosiri Poisson sunt independente, timpul cerut pen-
tru un total de n sosiri Poisson este o sum¼ a de n variabile aleatoare independente
şi repartizate exponenţial. Fie Tj ; j = 1; 2; :::; n, timpul între sosirile j 1 şi j.
Timpul cerut pentru un total de n sosiri, notat cu Xn este
Xn = T1 + T2 + ::: + Tn ;
unde Tj ; j = 1; 2; :::; n, sunt independente şi repartizate exponenţial cu ace-
laşi parametru . Se poate ar¼ ata c¼
a Xn este gamma repartizat¼ a cu = n şi
= . Astfel, repartiţia gamma este potrivit¼ a pentru a descrie timpul cerut
pentru un total de sosiri Poisson.
62
Fiabilitatea şi legea de defectare exponenţial¼ a În studiile de …abilitate,
timpul pân¼ a la defectarea unui component …zic sau un sistem este repartizat
exponenţial, dac¼ a unitatea se defecteaz¼a imediat ce un singur eveniment, ca de-
fectarea unui component, apare, presupunând c¼ a astfel de fenomene se întâmpl¼ a
independent.
Fie variabila aleatoare T , timpul pân¼ a la defectarea unui component sau
sistem. Funcţia care d¼ a probabilitatea de defecţiune în timpul unei creşteri mici
de timp, presupunând c¼ a nicio defecţiune nu a ap¼ arut înainte de acel timp e
notat¼a cu h (t) şi se numeşte funcţia hazard sau rata defect¼arii şi este de…nit¼
a
de
fT (t)
h (t) = : (5.23)
1 FT (t)
În studiile de …abilitate, o funcţie hazard potrivit¼
a pentru multe fenomene
ia aşa numita "form¼a de cad¼ a", ar¼
atat¼a în …gura urm¼atoare.
Porţiunea iniţial¼
a a curbei reprezint¼a "mortalitatea infantil¼ a", atribuibil¼
a
defectelor componente şi imperfecţiunilor de fabricare. Porţiunea relativ con-
stant¼
a a curbei h (t) reprezint¼ a perioada "în uz", în care defecţiunea este în-
tâmpl¼atoare. Defecţiunea din uzur¼ a de lâng¼a sfârşitul vieţii componentului este
ar¼
atat¼
a ca porţiunea cresc¼ atoare a curbei h (t). Fiabilitatea sistemului poate …
63
optimizat¼ a prin testarea iniţial¼
a a defectelor, înainte punerea în funcţiune, pân¼ a
la timpul t1 , pentru a evita defectarea prematur¼ a, şi prin înlocuirea parţial¼
a la
timpul t2 pentru a evita uzura.
Ar¼ at¼
am c¼a legea de defectare exponenţial¼ a este potrivit¼ a în timpul perioadei
"în uz" a vieţii normale a unui sistem. Înlocuind
fT (t) = e t
şi
FT (t) = 1 e t
în relaţia (5.23) avem
h (t) = :
Observ¼am c¼ a parametrul din repartiţia exponenţial¼ a joac¼
a rolul unei rate
de defectare constante.
Am v¼ azut c¼ a repartiţia gamma este potrivit¼ a pentru a descrie timpul pentru
un total de sosiri Poisson. În contextul legilor de defectare, repartiţia gamma
poate … gândit¼ a ca o generalizare a legii de defectare exponenţial¼ a pentru sisteme
ce se defecteaz¼ a imediat de evenimente eşueaz¼ a, presupunând c¼ a evenimentele
au loc în concordanţ¼ a cu legea Poisson. Astfel, repartiţia gamma este potrivit¼ a
ca model al timpului pân¼ a la defectare pentru sisteme care au o unitate care
funcţioneaz¼a şi 1 unit¼aţi în standby; aceste unit¼ aţi intr¼
a în funcţionare pe
rând, pe m¼ asur¼ a ce se defecteaz¼ a celelalte şi …ecare are o repartiţie exponenţial¼
a
a timpului pân¼ a la defectare.
64
Se observ¼ a c¼
a, când n creşte, forma lui fX (x) devine mai simetric¼ a. Din
relaţia (5.25), deoarece X poate … exprimat¼ a ca o sum¼ a de variabile aleatoare
identic repartizate, ne astept¼am ca repartiţia 2 s¼ a tind¼
a la o repartiţie normal¼
a
când n ! 1 pe baza teoremei limit¼ a central¼
a.
Media şi dispersia unei variabile aleatoare X având o repartiţie 2 cu n grade
de libertate se obţin din relaţia (5.19):
2
mX = n; X = 2n:
(
( + ) 1 1
fX (x) = ( ) ( )x (1 x) , pentru 0 < x < 1;
(5.26)
0, altfel,
( ) ( )
B( ; ) = :
( + )
65
Ambii parametri şi dau forma repartiţiei; diferite combinaţii ale valorilor
lor permit densit¼aţii s¼
a ia o larg¼
a varietate de forme. Când ; > 1, repartiţia
este unimodal¼ a, cu vârful în x = + 1 2 : Devine în form¼ a de U când ; < 1;
este în form¼a de J când 1 şi < 1; ia forma unui J întors când < 1
şi 1. În sfârşit, ca un caz special, repartiţia uniform¼
a pe intervalul (0; 1)
rezult¼
a când = = 1. Unele din aceste forme posibile sunt în …gurile (a),
pentru = 2, şi (b) urm¼ atoare.
mX = + ;
2 (5.27)
X = ( + )2 ( + +1)
:
Datorit¼ a versatilit¼
aţii ei ca o repartiţie pe un interval …nit, repartiţia beta
este folosit¼
a pentru a reprezenta un mare num¼ ar de cantit¼ aţi …zice pentru care
valorile sunt restricţionate la un interval identi…cabil. Câteva din ariile de apli-
care sunt limitele de toleranţ¼ a, controlul calit¼
aţii şi …abilitatea.
Presupunem c¼ a un fenomen aleator Y poate … observat independent de n
ori şi dup¼a ce aceste n observaţii independente sunt ordonate cresc¼ ator, …e
y1 y2 ::: yn valorile lor. Dac¼ a variabila aleatoare X este folosit¼ a pentru a
nota proporţia din Y care ia valori între yr şi yn s+1 , se poate ar¼ ata c¼
a X are
o repartiţie beta cu = n r s + 1 şi = r + s, adic¼ a
66
(
(n+1) n r s r+s 1
fX (x) = (n r s+1) (r+s) x (1 x) , pentru 0 < x < 1;
0, altfel.
F (x; ; ) = Ix ( ; ) :
Dac¼
a < , atunci
F (x; ; ) = 1 I(1 x) ( ; ):
O alt¼
a metod¼ a de evaluare a lui FX (x) din relaţia (5.28) este de a observa
similaritatea în form¼a dintre fX (x) şi pY (k) a unei variabile aleatoare binomiale
Y , pentru cazul când ; 2 N . Din relaţia (4.1),
n!
pY (k) = pk q n k ; k = 0; 1; 2; :::; n: (5.29)
k! (n k)!
Din relaţia (5.26), pentru cazul când ; 2 N , obţinem
( + 1)! 1 1
fX (x) = x (1 x) ; ; = 1; 2; :::; 0 < x < 1;
( 1)! ( 1)!
şi stabilim relaţia
67
5.5.2 Repartiţia beta generalizat¼
a
Repartiţia beta poate … generalizat¼
a de la una restricţionat¼
a la intervalul (0; 1)
la una acoperind un interval arbitrar (a; b). Fie Y o variabil¼ a aleatoare beta
generalizat¼a. Avem
Y = (b a) X + a; (5.30)
unde X este beta repartizat¼ a în conformitate cu relaţia (5.26). Deoarece
relaţia (5.30) este o transformare monoton¼a de la X la Y , avem
(
( + ) 1 1
(b a) + 1
( ) ( )
(y a) (b y) , pentru a < y < b;
fY (y) =
0, altfel.
(5.31)
dFYn (y) n 1
fYn (y) = = n [FX (y)] fX (y) :
dy
Funcţia de repartiţie a lui Zn este
indep.
FZn (z) = P (Zn z) = P (X1 z [ X2 z [ ::: [ Xn z) = 1 P (X1 > z \ X2 > z \ ::: \ Xn > z) =
1 P (X1 > z) P (X2 > z) :::P (Xn > z) = 1 [1 FX1 (z)] [1 FX2 (z)] ::: [1 FXn (z)] =
n
1 [1 FX (z)] :
68
Deci
n
FZn (z) = 1 [1 FX (z)] :
Dac¼
a Xj sunt continue, densitatea lui Zn este
n 1
fZn (z) = n [1 FX (z)] fX (z) :
lim Yn = Y:
n!1
mY = u + ;
unde ' 0; 577 este constanta lui Euler. Dispersia lui Y este
2
2
Y = :
6 2
u este parametru de locaţie şi este parametru de scal¼ a al repartiţiei. Co-
e…cientul de asimetrie este în acest caz 1 ' 1; 1396 şi e independent de şi
u. Acest rezultat arat¼a c¼
a repartiţia valorii maxime de tip I are o form¼a …x¼ a cu
o coad¼
a dominant¼ a spre dreapta. O form¼ a tipic¼
a pentru fY (y) este aratat¼ a în
…gura urm¼ atoare.
69
Repartiţia asimptotic¼a de tip I pentru valori minime este repartiţia limitei
lui Zn când n ! 1 dintr-o repartiţie iniţial¼
a FX (x) a c¼arei coad¼
a stâng¼ a este
nem¼ arginit¼
a şi este de tip exponenţial când descreşte la 0 spre stânga. Un
exemplu de FX (x) care aparţine acestei clase este repartiţia normal¼
a.
Dac¼a punem
lim Zn = Z;
n!1
mY = u ;
2
2
Y = 6 2 ;
1 ' 1; 1396:
Datorit¼
a largii aplicabilit¼
aţi, repartiţia valorii maxime de tip I este uneori
numit¼
a simplu repartiţia valorii extreme.
70
y k
FY (y) = exp ; v; k; y > 0:
v
Cu FX (x) dat în relaţia (5.33), …ecare Xj are momente doar pân¼
a la ordinul
r, unde r este cel mai mare întreg mai mic decât k. Când k > 1, media lui Y
este
1
mY = v 1 ;
k
şi, când k > 2, dispersia are forma
2 2 1
Y = v2 1 2
1 :
k k
Fie YI şi YII variabile aleatoare având repartiţii asimptotice de tip I, respec-
tiv II ale valorilor maxime. Atunci ele sunt legate prin
u = ln v şi = k:
Dac¼
a YI şi YII sunt continue, densit¼
aţile lor sunt în relaţia
1
fYII (y) = fY (ln y) ; y > 0:
y I
Repartiţia asimptotic¼ a de tip II a valorilor minime apare în condiţii analoage.
Cu FX (x) limitat¼ a la dreapta în 0 şi apropiindu-se de 0 la stânga într-o manier¼a
analoag¼
a relaţiei (5.33), avem
z k
FZ (z) = 1 exp ; v; k > 0; z < 0:
v
Nu e aşa util¼
a ca omoloagele de tip I şi III, deoarece în practic¼
a repartiţiile
iniţiale cerute nu sunt frecvent întâlnite.
71
Aceast¼
a clas¼a de repartiţii este m¼arginit¼a la stânga în x = ". Repartiţia
gamma este o astfel de repartiţie cu " = 0.
Se poate ar¼
ata c¼
a funcţia de repartiţie asimptotic¼
a de tip III a valorii minime
este
" #
k
z "
FZ (z) = 1 exp ; k > 0; w; z > "; (5.34)
w "
şi, dac¼
a Z e continu¼
a,
" #
k 1 k
k z " z "
fZ (z) = exp ; k > 0; w; z > ":
w " w " w "
(5.35)
Media şi dispersia lui Z sunt
1
mZ = " + (w ") 1 + k ;
2
2
Z = (w ") 1 + k2 2
1+ 1
k :
Am v¼ azut c¼a repartiţia exponenţial¼a e folosit¼
a ca o lege a defect¼
arii în studii
de …abilitate, corespunzând unei funcţii hazard constante. Repartiţia dat¼ a de
relaţiile (5.34) şi (5.35) este frecvent folosit¼
a ca un model generalizat al timpului
pân¼a la defectare pentru cazurile în care funcţia hazard variaz¼ a cu timpul. Se
poate ar¼ ata c¼
a funcţia hazard
k 1
k t
h (t) = ; t > 0;
w w
poate avea o larg¼a varietate de forme, şi densitatea asociat¼a cu ea pentru T ,
timpul pân¼
a la defectare, este dat¼a de
" #
k 1 k
k t t
fT (t) = exp ; w; k; t > 0: (5.36)
w w w
Aceasta este repartiţia Weibull, numit¼ a dup¼ a Weibull care a descoperit-o în
1939. Relaţia (5.36) este un caz special al relaţiei (5.35), cu " = 0:
Fie ZI şi ZIII variabile aleatoare având repartiţii asimptotice de tipul I,
respectiv III, ale valorilor minime. Atunci
72
a valorii minime este de tipul III. Un sistem având n componente în serie cu
repartiţii de viaţ¼
a gamma independente pentru componentele lui are o repartiţie
a timpului pân¼ a la defectare aparţinând repartiţiei asimptotice de tip III a valorii
minime, când n devine mare. Modelul corespunz¼ ator pentru un sistem având n
componente în paralel este repartiţia asimptotic¼ a de tip I a valorii maxime.
73
6 Funcţii (transform¼
ari) de variabile aleatoare
În ştiinţ¼
a şi inginerie, multe fenomene sunt bazate pe relaţii funcţionale în care
una sau mai multe variabile dependente sunt exprimate în termeni de una sau
mai multe variabile independente. De exemplu, distanţa parcurs¼ a într-un inter-
val de timp este o funcţie de vitez¼ a, ş.a.m.d.
Y = g (X) ; (6.1)
unde g este o funcţie continu¼ a. Dat¼a …ind repartiţia lui X în termeni de
funcţia ei de repartiţie, funcţia mas¼
a de probabilitate sau densitate, suntem
interesaţi de repartiţia corespunz¼atoare pentru Y şi propriet¼ aţile momentelor
lui Y .
6.1.1 Repartiţia
Dac¼ a X este variabil¼
a aleatoare, atunci Y , …ind o funcţie de X de…nit¼ a de relaţia
(6.1), este de asemenea o variabil¼ a aleatoare. Fie RX , mulţimea valorilor lui X;
şi RY mulţimea valorilor lui Y:
Pentru …ecare rezultat X = x, rezult¼ a din relaţia (6.1) c¼
a Y = y = g (x).
Relaţia (6.1) de…neşte şi o funcţie de la RX la RY . Probabilit¼ aţile asociate cu
…ecare punct (în cazul unei variabile aleatoare discrete X) sau …ecare regiune (în
cazul unei variabile aleatoare continue X) din RX sunt transportate în punctul
sau regiunea corespunz¼ atoare din RY . Repartiţia lui Y este determinat¼ a prin
completarea acestui proces de transfer pentru …ecare punct (dac¼ a X e discret¼ a)
sau …ecare regiune de tipul Y y (dac¼a X e continu¼ a) din RY . Este posibil ca
g s¼a duc¼a mai multe puncte din RX într-un singur punct din RY . Determinarea
repartiţiei lui Y depinde astfel de forma lui g din relaţia (6.1).
1
unde g (y) = fx 2 RX jg (x) = yg.
1 0 1 2
Exemplul 6.1. Fie X 1 1 1 1 . Determinaţi repartiţia lui
2 4 8 8
2
Y = 2X + 1:
2
Valorile lui Y sunt g ( 1) = 2 ( 1) + 1 = 3; g (0) = 1; g (1) = 3; g (2) = 9.
Avem g (1) = f0g ; g (3) = f 1; 1g ; g 1 (9) = f2g, deci pY (1) = pX (0) =
1 1
74
1 1 1 5 1
4 ; pY (3) = pX ( 1) + pX (1) = 2 + 8 = 8 ; pY (9) = pX (2) = 8. De aici,
1 3 9
Y 1 5 1 :
4 8 8
Dac¼ a g : RX ! RY este injectiv¼ a, valorile posibile luate de X sunt x1 ; x2 ; :::,
valorile luate de Y sunt y1 = g (x1 ) ; y2 = g (x2 ) ; ::: şi
pX (xi ) = pi ; i = 1; 2; :::;
atunci
Y = g (X) = 2X + 1: (6.2)
Transformarea y = g (x) este prezentat¼
a gra…c în …gura urm¼
atoare.
75
Funcţia de repartiţie a lui Y este de…nit¼
a de
FY (y) = P (Y y) :
Regiunea de…nit¼
a de Y y din RY acoper¼ a porţiunea îngroşat¼
a a curbei
de transformare, dup¼
a cum e ar¼
atat în …gura al¼
aturat¼
a, care, în RX corespunde
regiunii g (X) y, sau X g 1 (y), unde
1 y1
g (y) =
2
este funcţia invers¼
a a lui g, sau soluţia x în funcţie de y a ecuaţiei (6.2). De
aici,
1 1
FY (y) = P (Y y) = P (g (X) y) = P X g (y) = FX g (y) :
(6.3)
(6.3) este relaţia dintre funcţiile de repartiţie ale lui Y şi X.
76
Relaţia dintre densit¼
aţile lui Y şi X se obţine derivând în raport cu y în
(6.3):
1
dFY (y) d 1 1 dg (y)
fY (y) = = FX g (y) = fX g (y) : (6.4)
dy dy dy
Relaţiile (6.3) şi (6.4) au loc nu doar pentru transformarea particular¼ a dat¼a
prin relaţia (6.2) dar şi pentru toate funcţiile continue g care sunt strict cresc¼
a-
toare.
Consider¼ am acum situaţia în care transformarea e dat¼ a de
Y = g (X) = 2X + 1: (6.5)
Plecând din nou cu FY (y) = P (Y y) şi raţionând ca mai sus, regiunea
1
Y y din RY corespunde regiunii X g (y), dup¼ a cum arat¼
a …gura urm¼a-
toare.
77
1 1 1
FY (y) = P (Y y) = P X > g (y) = 1 P X g (y) = 1 FX g (y) :
(6.6)
În comparaţie cu relaţia (6.3), relaţia (6.6) d¼
a o leg¼
atur¼
a diferit¼
a între funcţi-
ile de repartiţie ale lui X şi Y , datorit¼
a unui g diferit.
Derivând în relaţia (6.6) în raport cu y obţinem relaţia dintre densit¼ aţile lui
X şi Y :
1
dFY (y) d 1 1 dg (y)
fY (y) = = 1 FX g (y) = fX g (y) : (6.7)
dy dy dy
Din nou observ¼ am c¼a relaţiile (6.6) şi (6.7) au loc pentru toate funcţiile
continue g care sunt strict descresc¼ atoare.
1
Deoarece derivata dg dy(y) este totdeauna pozitiv¼ a în relaţia (6.4) (pentru c¼
a
g e strict cresc¼atoare) şi este totdeauna negativ¼ a în relaţia (6.7) (pentru c¼ag
e strict descresc¼atoare), rezultatele exprimate de aceste relaţii pot … combinate
în urm¼ atoarea teorem¼ a:
Teorema 6.1. Fie X o variabil¼ a aleatoare continu¼ a şi Y = g (X), unde g
este continu¼a şi strict monoton¼ a. Atunci
1
1 dg (y)
fY (y) = fX g (y) : (6.8)
dy
Exemplul 6.3. Densitatea lui X este dat¼
a de
a
fX (x) = ; 1 < x < 1;
(x2 + a2 )
unde a > 0 (repartiţia Cauchy). Determinaţi densitatea lui Y = 2X + 1:
Deoarece g (x) = 2x + 1 este continu¼
a şi strict monoton¼ a, aplic¼
am relaţia
(6.8).
1
y = 2x + 1 () x = y 2 1 =) g 1 (y) = y 2 1 =) dg dy(y) = 21 .
Din relaţia (6.8),
fY (y) = fX y 2 1 12 = h y 1a 2 2 i 21 = (y 1) 2a
; 1 < y < 1:
( 2 ) +a [ 2
+4a2 ]
Consider¼am acum cazul când g nu este strict monoton¼ a. În …gura urm¼ atoare,
pentru y < y1 şi y > y2 , ecuaţia g (x) = y are soluţie unic¼
a şi relaţia (6.8) poate
… folosit¼
a pentru a determina densitatea lui Y în aceste intervale.
78
Pentru y1 y y2 , trebuie s¼ a plec¼
am de la început şi consider¼
am FY (y) =
P (Y y). Regiunea de…nit¼
a de Y y în RY acoper¼a porţiunile îngroşate ale
curbei y = g (x), dup¼
a cum este ar¼
atat în …gur¼
a. Astfel,
79
Figura urm¼atoare reprezint¼
a transformarea y = sin x; aceast¼ a ecuaţie are o
in…nitate num¼
arabil¼
a de r¼ acini, x1 = g1 1 (y) ; x2 = g2 1 (y) ; ::: 8y 2 [ 1; 1] :
ad¼
Urmând procedura de mai sus se poate stabili pentru FY (y) o relaţie similar¼a
cu (6.9) (dar cu o in…nitate de termeni) şi, precum în relaţia (6.11), densitatea
lui Y are acum forma
1
X dgj 1 (y)
fY (y) = fX gj 1 (y) ; 1 < y < 1: (6.12)
j=1
dy
Se observ¼ a c¼
a fY (y) = 0 pentru y 2 = [ 1; 1], deoarece FY (y) = 0, 8y 1
şi FY (y) = 1; 8y 1:
Relaţiile (6.11) şi (6.12) conduc la urm¼ atorul rezultat:
Teorema 6.2. Fie X o variabil¼ a aleatoare continu¼ a şi Y = g (X), unde
g este continu¼ a, şi g (x) = y are un num¼ ar cel mult num¼ arabil de r¼
ad¼
acini
x1 = g1 1 (y) ; x2 = g2 1 (y2 ) ; :::. Atunci:
r
X dgj 1 (y)
fY (y) = fX gj 1 (y) ; (6.13)
j=1
dy
80
Relaţia (6.8) este conţinut¼
a în aceast¼
a teorem¼
a ca un caz special (r = 1).
Exemplul 6.4. Determinaţi densitatea lui Y = X 2 , unde X N (0; 1).
Avem
1 x2
fX (x) = p e 2 ; 1 < x < 1:
2
Y 0 =) FY (y) = P (Y y) = P (;) = 0; 8y < 0 =) fY (y) = FY0 (y) =
0; 8y < 0. Pentru y > 0, r¼ acinile lui x2 = y sunt
ad¼
p
x1;2 = g1;21 (y) = y:
De aici, folosind relaţia (6.13),
X2
dgj 1 (y) p p
fY (y) = fX gj 1 (y) dy = fX y 1
p
2 y + fX y 1
p
2 y =
j=1
y
p1 e 2 ;
2 y
deci
y
p1 e 2 , pentru y > 0;
fY (y) = 2 y
0, altfel.
Am obţinut repartiţia 2 cu un grad de libertate (vezi relaţia (5.24)), deoarece
Z 1 2 Z 1 Z 1
1 1 u= x2 p x2 p x2 p
u 1
2 = u e du = 2 x e xdx = 2 e 2 dx = 2
2 2
Z 1 0 0 0
1 x2 1
p p
2 e 2 dx = 2 2 =
p :
1
6.1.2 Momente
Fie Y = g (X) şi presupunem c¼ a toate momentele dorite ale lui Y exist¼
a. Mo-
mentul de ordinul n al lui Y este
X
E (Y n ) = E (g n (X)) = g n (xi ) pX (xi ) , dac¼
a X e discret¼
a,
Zi 1 (6.14)
n n
E (Y ) = E (g (X)) = g n (x) fX (x) dx, dac¼
a X e continu¼
a.
1
1 0 1 2
Exemplul 6.5. Fie X 1 1 1 1 . Determinaţi media şi disper-
2 4 8 8
sia lui Y = 2X + 1:
Folosim prima relaţie (6.14).
X
1 1 1 1
E (Y ) = E (2X + 1) = (2xi + 1) pX (xi ) = ( 1) 2 +1 4 +3 8 +5 8 = 34 :
i
2
X 2
2 1 1 1 1
E Y = E (2X + 1) = (2xi + 1) pX (xi ) = 1 2 +1 4 +9 8 +25 8 =
i
5:
2 3 2 71
Y =E Y2 E 2 (Y ) = 5 4 = 16 :
81
6.2 Funcţii de dou¼
a sau mai multe variabile aleatoare
Consider¼
am transformarea
şi, dup¼
a cum se observ¼
a din …gura urm¼ a R2 =
atoare, în care este reprezentat¼
2
x 2 R jx1 + x2 y , avem
82
Z 1 Z y x2
FY (y) = fX1 X2 (x1 ; x2 ) dx1 dx2 : (6.18)
1 1
Integrala din relaţia (6.20) se numeşte convoluţia funcţiilor fX1 (x1 ) şi fX2 (x2 ) :
Teorema 6.3. Fie X1 şi X2 variabile aleatoare continue independente şi
Y = X1 + X2 . Atunci densitatea lui Y este convoluţia densit¼ aţilor lui X1 şi X2 ,
adic¼
a
Z 1 Z 1
fY (y) = fX1 (y x2 ) fX2 (x2 ) dx2 = fX2 (y x1 ) fX1 (x1 ) dx1 :
1 1
(6.21)
83
6.3 m funcţii de n variabile aleatoare
Fie
Y = g (X) ; (6.23)
unde g (X) are componentele g1 (X) ; g2 (X) ; :::; gn (X). Consider¼ am întâi cazul
în care funcţiile gj din g sunt continue în raport cu …ecare argument, au derivate
parţiale continue şi sunt bijective. Atunci rezult¼ a funcţiile inverse gj 1 din
a c¼
g 1 de…nit¼ a de
1
X=g (Y) ;
exist¼
a şi sunt unice. Au de asemenea derivate parţiale continue.
Pentru a determina fY (y) în termeni de fX (x), observ¼ am c¼
a, dac¼
a o regiune
n n
închis¼
a RX din mulţimea valorilor lui X este dus¼
a într-o regiune închis¼
a RY din
mulţimea valorilor lui Y prin transformerea g, conservarea probabilit¼ aţii d¼a
Z Z Z Z
fY (y) dy = fX (x) dx; (6.24)
n
RY n
RX
84
@g1 1 @g1 1 @g1 1
@y1 @y2 ::: @yn
J= .. .. .. : (6.26)
. . .
1 1 1
@gn @gn @gn
@y1 @y2 ::: @yn
@g1 1 @g1 1 1 1
@y1 @y2 2 2
1
J= @g2 1 @g2 1
= 1 1 = :
2 2 2
@y1 @y2
Datorit¼
a independenţei, relaţia (6.27) conduce la
2 2
( y1 +y2
) p1 ( y1 2 y2 )
fY1 Y2 (y1 ; y2 ) = fX1 g1 1 (y) fX2 g2 1 (y) jJj = p12 exp 2
2 2
exp 2
h i h i
1 1 (y1 +y2 )2 (y1 y2 )2 y12 +y22
2 = 4 exp 8 exp 8 = 41 exp 4 ; y1 ; y2 2 R:
Observ¼ am c¼ a rezultatul poate … scris sub forma
1 y12
fY1 (y1 ) = p exp ; y1 2 R;
4 4
1 y22
fY2 (y2 ) = p exp ; y2 2 R;
4 4
implicând c¼ a, deşi Y1 şi Y2 sunt ambele funcţii de X1 şi X2 , ele sunt independente
şi identic repartizate N (0; 2).
Relaţia (6.27) este o extindere a relaţiei (6.8), care este pentru cazul special
n = 1. Similar, o extindere este de asemenea posibil¼ a pentru relaţia (6.13)
pentru cazul n = 1 când ecuaţia are mai mult de o r¼ ad¼acin¼a.
85
Teorema 6.5. În transformarea dat¼ a de relaţia (6.23), presupunem c¼ a
ecuaţia g (x) = y are un num¼
ar cel mult num¼
arabil de r¼ acini x1 = g1 1 (y) ; x2 =
ad¼
g2 1 (y) ; :::. Atunci
r
X
fY (y) = fX gj 1 (y) jJj j ; (6.28)
j=1
Z = h (X) ; (6.29)
unde h este continu¼ a şi are derivate parţiale continue. Combinând relaţiile (6.22)
şi (6.29), avem o transformare de la n variabile aleatoare la n variabile aleatoare,
şi densitatea comun¼ a a lui Y şi Z poate … obţinut¼ a cu relaţia (6.27) sau relaţia
(6.28). Densitatea comun¼ a a lui Y singur se g¼ aseşte apoi prin integrare în raport
cu componentele lui Z.
86
Part II
Statistic¼
a
7 Statistic¼a descriptiv¼ a pentru date unudimen-
sionale (reprezent¼ ari gra…ce, funcţie de repar-
tiţie de selecţie, momente de selecţie)
7.1 Histograme şi diagrame de frecvenţe
Fiind dat un set de observaţii independente x1 ; x2 ; :::; xn , ale unei variabile
aleatoare X, un prim pas util este organizarea şi prezentarea lor adecvat¼ a astfel
încât ele s¼
a poat¼ a … uşor inerpretate şi evaluate. Când exist¼
a un num¼ ar mare
de date observate, o histogram¼a este o reprezentare gra…c¼ a excelent¼
a a datelor,
facilitând
a) o evaluare a adecv¼ arii modelului presupus,
b) estimarea percentilelor repartiţiei,
c) estimarea parametrilor repartiţiei.
Consider¼am, de exemplu, un proces chimic care este producerea de loturi
(batches) dintr-un material; 200 de valori observate ale randamentului procen-
tual (percentage yield), X, reprezentând un eşantion relativ mare sunt date în
tabelul urm¼ ator.
87
Valorile eşantionului variaz¼
a de la 64 la 76. Împ¼arţind acest interval în 12
intervale egale şi reprezentând num¼arul total de randamente observate în …ecare
interval ca în¼
alţimea dreptunghiului de deasupra intervalului rezult¼a histograma
dup¼a cum e ar¼ atat în …gura urm¼atoare.
88
O diagram¼a de frecvenţe este obţinut¼ a dac¼a ordonata histogramei este îm-
p¼ arţit¼
a la num¼ arul total de observaţii, 200 în acest caz, şi la l¼aţimea
intervalului (care se întâmpl¼ a s¼
a …e 1 în acest exemplu). În dreapta …gurii
este reprezentat¼ a ordonata diagramei de frecvenţe. Vedem c¼ a histograma sau
diagrama frecvenţelor d¼ a o impresie imediat¼ a asupra valorilor, frecvenţei relative
şi împr¼ aştierii asociate datelor.
Diagrama frecvenţelor din …gur¼ a are propriet¼aţile unei densit¼ aţi (suma ari-
ilor dreptunghiurilor este 1). De aici pot … estimate probabilit¼ aţile asociate
cu diverse evenimente. De exemplu, probabilitatea unui lot având randament
mai mic decât 68% poate … calculat¼ a din diagrama frecvenţelor adunând ariile
de la stânga lui 68% şi obţinând 0; 13 (0; 02 + 0; 01 + 0:025 + 0:075). Simi-
lar, probabilitatea unui lot având un randament mai mare de 72% este 0; 18
(0; 105 + 0; 035 + 0; 03 + 0; 01). Acestea sunt probabilit¼ aţi calculate pe baza
datelor observate. Un set diferit de date obţinute din acelaşi proces chimic ar
conduce în general la o diagram¼ a de frecvenţe diferit¼a şi deci la valori diferite
pentru aceste probabilit¼ aţi. În consecinţ¼
a, ele sunt estim¼ ari ale probabilit¼ aţilor
P (X < 68) şi P (X > 72) asociate cu variabila aleatoare X.
89
Pentru acest exemplu, alegerea a 12 intervale este convenabil¼ a datorit¼a in-
tervalului de valori luate de observaţii şi faptului c¼
a rezoluţia rezultat¼a este
adecvat¼a pentru calculele de probabilit¼aţi de mai sus. În …gura urm¼ atoare este
construit¼
a o histogram¼a folosind 4 intervale în loc de 12 pentru acelaşi exemplu.
Se observ¼a c¼
a proiecteaz¼
a o impresie vizual¼a mult diferit¼
a şi cu o mai mic¼
a
acurateţe a comportamentului datelor. Astfel, e important s¼ a …e ales num¼arul
de intervale în concordanţ¼
a cu informaţia care se vrea extras¼
a din modelul
matematic. Ca un ghid practic, Sturges a sugerat în 1926 ca o valoare aproxi-
mativ¼a pentru num¼ arul de intervale k s¼
a …e dat¼a de
k ' 1 + 3; 3 lg n;
unde n este num¼ arul de date.
Din punctul de vedere al model¼ arii, este rezonabil s¼
a alegem o repartiţie
normal¼a ca model probabilistic pentru randamentul procentual X observând
c¼
a variaţiile aleatoare ale ei sunt rezultanta a numeroase surse aleatoare inde-
pendente în procesul chimic de fabricare. Dac¼ a aceasta este sau nu o alegere
rezonabil¼a poate … evaluat intr-un mod subiectiv folosind diagrama frecvenţelor
din …gura al¼ aturat¼
a. Densitatea repartiţiei normale de medie 70 şi dispersie 4
este trasat¼ a punctat pe diagrama frecvenţelor, ar¼ atând o potrivire rezonabil¼ a.
Bazându-ne pe aceast¼ a repartiţie normal¼a, putem calcula probabilit¼
aţile de mai
90
sus, dând o alt¼a evaluare a adecv¼ arii modelului. De exemplu, cu ajutorul tabelu-
lui valorilor repartiţiei N (0; 1) ;
P (X < 68) = FU 68 2 70 = FU ( 1) = 1 FU (1) = 1 0; 8413 = 0; 1587;
care se compar¼ a cu 0; 13 obţinut¼ a folosind diagrama frecvenţelor.
În cele de mai sus, alegerile lui 70 şi 4 ca estim¼ ari pentru media, respec-
tiv dispersia lui X, sunt f¼ acute observând c¼ a media repartiţiei ar trebui s¼
a …e
aproape de media aritmetic¼ a a selecţiei, adic¼a
n
1X
mX ' xj ;
n j=1
91
Diagrama frecvenţelor este obţinut¼
a în acest caz prin împ¼
arţirea ordonatei his-
togramei la num¼
arul total de observaţii, care este 7842.
92
De exemplu, parametrii populaţiei care pot … de interes includ media, deviaţia
standard, cuantile, proporţii, coe…cienţi de corelaţie, etc.
Presupunem c¼ a un model probabilistic, reprezentat de densitatea f (x), a
fost ales pentru un fenomen …zic sau natural pentru care parametrii 1 ; 2 ; :::
trebuie estimaţi din datele observate independent x1 ; x2; :::; xn . Consider¼ am pen-
tru moment un singur parametru pentru simplitate şi scriem f (x; ) pentru
o densitate speci…cat¼ a unde este parametrul necunoscut care trebuie estimat.
Problema estim¼ arii parametrului este atunci una a determin¼ arii unei funcţii
corespunz¼atoare de x1 ; x2; :::; xn , s¼
a spunem h (x1 ; x2; :::; xn ), care d¼a "cea mai
bun¼a" estimare a lui .
Fiind dat un set de date independente x1 ; x2; :::; xn , …e
93
7.2.1 Media de selecţie
Statistica
n
1X
X= Xi
n i=1
e numit¼
a media de selecţie a populaţiei X. Fie media şi dispersia populaţiei
E(X) = m;
(7.2)
var(X) = 2 :
Media mediei de selecţie X este
n
1X 1
E(X) = E (Xi ) = (nm) = m:
n i=1 n
deci
2
var(X) =
;
n
care este invers proporţional¼ a cu m¼arimea selecţiei n. Când n creşte, dispersia
lui X descreşte şi repartiţia lui X devine ascuţit¼a cu vârful în E(X) = m. De
aici, este clar intuitiv c¼
a statistica X d¼a o bun¼
a procedur¼ a de estimare a mediei
populaţiei m.
Deoarece X este o sum¼ a de variabile aleatoare independente, pe baza teo-
remei limit¼ a central¼a, media de selecţie X tinde la o repartiţie normal¼ a când
94
1
n ! 1. Mai precis, variabila aleatoare X m p
n
tinde la N (0; 1) când
n ! 1.
95
Dispersia lui S 2 este a‡at¼
a din
2 2
var(S 2 ) = E S2 :
Se obţine
1 n 3
var(S 2 ) = 4
4
;
n n 1
unde 4 este momentul centrat de ordinul 4 al lui X, adic¼
a
4
4 = E (X m) :
E (Mk ) = k ;
var (Mk ) = n1 2k
2
k ;
unde k este momentul de ordinul k al lui X.
Momentul centrat de selecţie de ordinul k este
n
1X k
Mkc = Xi X :
n i=1
96
8
< 0, dac¼
a x < X(1) ;
Fbn (x) = j
, dac¼
a X(j) x < X(j+1) ;
: n
1, dac¼
a x X(n) :
Funcţia de repartiţie de selecţie estimeaz¼a neparametric funcţia de repartiţie
a populaţiei X. În …gura urm¼ atoare sunt reprezentate o funcţie de repartiţie de
selecţie şi funcţia de repartiţie pentru normala standard.
97
8 Estimarea parametrilor unor repartiţii prin metoda
verosimilit¼
aţii maxime
8.1 Criterii de calitate pentru estim¼
ari
Statistica
b = h (X1 ; X2 ; :::; Xn )
b = h (x1 ; x2 ; :::; xn ) ;
8.1.1 Nedeplasare
De…niţie. Un estimator b se numeşte estimator nedeplasat pentru dac¼
a
E b = ;
bias b = E b :
n
X
1
Exemple. 1) Media de selecţie X = n Xi este estimator nedeplasat
i=1
pentru media populaţiei m deoarece E X = m.
n
X
2 1 2
2) Dispersia de selecţie S = n 1 Xi X este estimator nedeplasat
i=1
2
pentru dispersia populaţiei deoarece E S 2 = 2
.
n
X
1 2
3) Estimatorul S 2 = n Xi X este estimator deplasat pentru 2
i=1
deoarece E S 2 = nn 1 2 . De aceea pentru de…nirea dispersiei de selecţie se
a coe…cientul n 1 1 in locul alegerii mai naturale n1 . Deplasarea lui S 2 este
prefer¼
2
n 1
bias S 2 = 2 2
= :
n n
98
var b var ( ):
dac¼a media şi derivata parţial¼ a scrise exist¼ a. Presupunem c¼ a se poate deriva in
raport cu sub integral¼ a. Un rezultat analog se obţine dac¼ a X este discret¼ a
înlocuind f (X; ) cu p (X; ), unde p (x; ) este masa populaţiei X:
nedeplasare X1 ;:::;Xn indep endente
Demonstraţie. = E b = E (h (X1 ; X2 ; :::; Xn )) =
Z 1 Z 1 @
@
::: h (x1 ; :::; xn ) f (x1 ; ) :::f (xn ; ) dx1 :::dxn =)
1 1
1= 2 3
Z 1 Z 1 Xn
@f (xj ; ) 5
::: h (x1 ; :::; xn ) 4 1
f (xj ; ) @ f (x1 ; ) :::f (xn ; ) dx1 :::dxn =
1 1 j=1
2 3
Z 1 Z 1 Xn
@ ln f (x ; )
::: h (x1 ; :::; xn ) 4 @
j 5 f (x1 ; ) :::f (xn ; ) dx1 :::dxn :
1 1 j=1
Z (8.1)
1 @
@
f (x; ) densitate ) 1 = f (xi ; ) dxi , i = 1; 2; :::; n =)
Z 1 Z 1
1
@f (xi ; ) @ ln f (xi ; )
0= @ dxi = @ f (xi ; ) dxi , i = 1; 2; :::; n:
1 1
99
n
X @ ln f (X j; )
Fie Y = @ )
j=1
Xn Xn Z1
@ ln f (Xj ; ) @ ln f (xj ; )
E (Y ) = E @ = f (xj ; ) dxj = 0:
j=1 j=1 1
@
| {z }
=0
X1 ; :::; Xn independente ) @ ln f@(X1 ; ) ; :::; @ ln f@(Xn ; )
independente )
X n
2 @ ln f (Xj ; )
Y = var @ =
j=1
02 32 1
n
X B6 @ ln f (Xj ; @ ln f (Xj ; ) 7 C X n h i2
EB6 7 C=
) @ ln f (Xj ; )
@4 @ E 5 A E @
@
j=1 | {z } j=1
=0
n
X h i2 h i2
@ ln f (X; ) @ ln f (X; )
= E @ = nE @ :
j=1
(8.1)
1 = E( b Y ) = E b E (Y ) + bY b Y = bY b Y )
| {z }
=0
1 2
2 2 = bY 1)
b Y
h i2 1
2 1 @ ln f (X; )
b 2 = nE @ :
Y
@ 2 ln f (x; ) @ ln f (x; )
@ 2
f (x; ) + @ f (x; ) dx =)
Z 1
1
h i2 Z 1
@ ln f (x; ) @ 2 ln f (x; )
@ f (x; ) dx = @ 2
f (x; ) dx =)
1 1
h i2
@ ln f (X; ) @ 2 ln f (X; )
E @ = E @ 2
=)
100
h i2 1 1
@ ln f (X; ) @ 2 ln f (X; )
MIRC = nE @ = nE @ 2
:
101
Observ¼am c¼a S 2 nu este un estimator e…cient pentru în acest caz, dar este
M IRC
asimptotic e…cient în sensul c¼
a lim var(S 2 ) = 1:
n!1
8.1.3 Consistenţ¼
a
De…niţie. Un estimator b bazat pe o selecţie de m¼
arime n este estimator
consistent pentru dac¼
a
lim P b " = 0, 8" > 0:
n!1
Teorema 8.2. Fie b un estimator bazat pe o selecţie de m¼
arime n. Dac¼
a
" 4var b
P b E b :
2 "2
Deoarece
b = b E b +E b b E b + E b ;
4var b
0 P b " ;
"2
de unde, trecând la limit¼
a rezult¼
a lim P b " = 0:
n!1
8.1.4 Su…cienţ¼
a
Fie X1 ; X2 ; :::; Xn o selecţie a populaţiei X a c¼ arei repartiţie depinde de para-
metrul necunoscut . Dac¼ a Y = h (X1 ; X2 ; :::; Xn ) este o statistic¼
a a. î., pentru
orice alt¼
a statistic¼a
Z = g (X1 ; X2 ; :::; Xn ) ;
102
repartiţia condiţionat¼a a lui Z, dat …ind c¼
a Y = y; nu depinde de , atunci Y
e numit¼ a statistic¼a su…cient¼a pentru . Dac¼ a în plus E (Y ) = , atunci Y se
numeşte estimator su…cient pentru .
Teorema 8.3. (criteriul de factorizare Fisher-Neymann). Fie
Y = h (X1 ; X2 ; :::; Xn )
o statistic¼
a bazat¼ a pe o selecţie de m¼arime n a populaţiei continue X. Atunci
Y este o statistic¼ a su…cient¼
a pentru dac¼ a şi numai dac¼
a densitatea comun¼
aa
lui X1 ; X2 ; :::; Xn poate … factorizat¼a sub forma
n
Y
fX (xj ; ) = g1 (h (x1 ; :::; xn ) ; ) g2 (x1 ; :::; xn ) :
j=1
Dac¼
a X este discret¼
a, condiţia este
n
Y
pX (xj ; ) = g1 (h (x1 ; :::; xn ) ; ) g2 (x1 ; :::; xn ) :
j=1
dL x1 ; x2 ; :::; xn ; b
= 0:
db
103
Dup¼ a cum am v¼ azut mai sus, funcţia L este în forma unui produs de funcţii
de . Deoarece L este întotdeauna nenegativ¼ a şi îşi atinge maximul pentru
aceeaşi valoare a lui b ca ln L, iar ln L este în form¼ a de sum¼ a, este în general
mai uşor s¼a obţinem EVM b rezolvând
d ln L x1 ; x2 ; :::; xn ; b
= 0;
db
numit¼ a ecuaţia de verosimilitate.
Soluţia dorit¼a este una unde r¼ acina b este o funcţie de x1 ; x2 ; :::; xn ,
ad¼
dac¼
a astfel de r¼ ad¼acin¼
a exist¼
a. Când exist¼ a mai multe r¼ad¼acini ale ecuaţiei
de verosimilitate, EVM este r¼ ad¼acina corespunz¼
atoare maximului global al lui
L sau ln L.
În cazul a m parametri, funcţia de verosimilitate devine
104
2 3
n n
X 2
1
1 exp 4 2
1
2 (xj m) 5 =)
(2 ) 2
j=1
n
X
1 2 1 2 1
ln L = 2 2 (xj m) 2 n ln 2 n ln 2 :
j=1
2
Fie 1 = m, 2 = =)
n
X
1 2 1 1
ln L = 2 2 (xj 1) 2 n ln 2 2 n ln 2 ,
j=1
n
X
@ ln L 1
@ 1 = 2
(xj 1) ;
j=1
Xn
@ ln L 1 2 n
@ 2 = 2 22
(xj 1) 2 2:
j=1
Sistemul de verosimilitate
8 este
Xn Xn
>
> 1 b b 1
( @ ln L >
> xj 1 = 0 =) 1 = xj ;
=0 < b2 n
b
@ 1 j=1 j=1
@ ln L () Xn n
X
@b2
=0 >
> b1
2
b2 = 1 b1
2
> 12
> x j
n
= 0 =) xj :
: 2b2 2b2 n
j=1 j=1
EVM pentru m si 2 sunt
n
X
b1 = 1 Xj = X;
n
j=1
n
X 2
b2 = 1
Xj X = n 1 2
n n S :
j=1
X estimator e…cient pentru m =) b 1 estimator e…cient pentru m =) b 1
asimptotic e…cient pentru m. 9
E b1 = E X = m ! m =
teorem a 8.2 b
n!1
2 =) 1 estimator consistent pen-
var b 1 = var X = n ! 0 ;
n!1
tru m.
E b 2 = nn 1 E S 2 = nn 1 2 6= 2 =) b 2 este estimator deplasat pentru
2
: 9
E b2 ! 2 =
teorem a 8.2
n!1 =)
4
n 1 2 n 1 2 2 4
var b 2 = n var S 2
= n n 1 = 2 (n 1)
n2 ! 0 ;
n!1
b 2 estimator consistent pentru 2
: 9
E b2 ! 2 >
=
n!1
2 4 =) b 2 estimator asimp-
lim M IRC
= lim n
= lim n
=1 >
;
n!1 var ( b 2 ) n!1 2 4 (n 1)
n!1 n 1
n2
2
totic e…cient pentru :
Exemplu. Presupunem c¼ a populaţia X are o repartiţie uniform¼
a pe inter-
valul (0; ). Vrem s¼a determin¼
am EVM pentru .
105
Avem
1
, pentru 0 x
f (x; ) = (8.2)
0, altfel.
Funcţia de verosimilitate devine
n
1
L (x1 ; x2 ; :::; xn ; ) = ; 0 xi ; 8i: (8.3)
Observ¼am c¼
a toate valorile selecţiei xi trebuie s¼
a …e mai mici sau egale cu
, implicând c¼
a doar porţiunea curbei de la dreapta lui max (x1 ; x2 ; :::; xn ) este
aplicabil¼
a. De aici, maximul lui L apare în = max (x1 ; x2 ; :::; xn ), sau EVM
pentru este
106
Studiem unele propriet¼ aţi ale lui b dat de relaţia (8.5). Densitatea lui b
este (vezi subsecţiunea 5.6)
n 1
f b (x) = nFX (x) fX (x) :
Cu fX (x) din relaţia (8.2) şi (din relaţia (5.2), pentru a = 0 şi b = )
8
< 0, pentru x < 0;
x
FX (x) = , pentru 0 x ;
:
1, pentru x > ;
avem
nxn 1
n , pentru 0 x ;
f b (x) =
0, altfel.
107
2
9 Estimarea parametrilor repartiţiei normale N (m; ):
estimatori punctuali, intervale de estimare (de
încredere)
9.1 Estimatori punctuali
În secţiunea precedent¼
a am considerat estimarea parametrilor repartiţiei nor-
male prin metoda verosimilit¼
aţii maxime.
i = i ( 1; 2 ; :::; m ) :
Pasul 1: …e
i
b 1 ; :::; b m = Mi ; i = 1; 2; :::; m. (9.1)
108
Exemplul 9.1. Alegem repartiţia normal¼ a ca model pentru randamentul
procentual discutat în capitolul 7, adic¼
a
" #
2
2 1 (x m)
f x; m; = p exp ; x 2 R:
2 2 2
1 = M1 = X;
şi
2 = M2 :
Avem
1 = 1:
X n
b1 = X = 1 Xj : (9.2)
n j=1
Propriet¼
aţile acestui estimator au fost discutate în capitolul precedent. El este
nedeplasat şi are dispersie minim¼a între toţi estimatorii nedeplasaţi pentru m.
Ecuaţia momentului de ordinul 2 d¼ a
X n
b 21 + b 2 = M2 = 1 X 2;
n j=1 j
sau
n
X 2
b 2 = M2 M12 = 1
Xj2 X :
n
j=1
Pe de alt¼
a parte 0 1
Xn n
X n
X n
X
2 2 2
1
Xj X = 1
Xj2 2Xj X + X = 1 @ Xj2 2X Xj + nX A =
n n n
j=1 j=1 j=1 j=1
0 1
Xn n
X
2 2
1 @ Xj2 2XnX + nX A = 1
Xj2 X :
n n
j=1 j=1
Deci
X n
b2 = 1 Xj X
2
: (9.3)
n j=1
109
Acesta, dup¼ a cum am ar¼ atat, este un estimator deplasat pentru 2 .
Estim¼ arile b1 şi b2 ale lui 1 = m şi 2 = 2 pe baza valorilor selecţiei date
de tabel sunt, urmând relaţiile (9.2) şi (9.3)
200
b1 1 X
= xj ' 70;
200 j=1
200
b2 1 X b1
2
= xj ' 4;
200 j=1
unde xj ; j = 1; 2; :::; 200 sunt valorile de selecţie din tabelul din capitolul 7.
110
p
5(X m) p
)P 1; 96 < 3 < 1; 96 = 0; 95 ) P 5; 88 < 5 X m < 5; 88 =
0; 95 )
P 2; 63 < X m < 2; 63 = 0; 95 ) P 2; 63 < m X < 2; 63 = 0; 95 )
111
De aici, folosind transformarea dat¼
a de relaţia (9.5), avem rezultatul general
u =2 u =2
P X p <m<X+ p =1 : (9.12)
n n
Acest rezultat poate … de asemenea folosit pentru a estima medii ale populaţiilor
nenormale cu dispersii cunoscute dac¼ a m¼arimea selecţiei este su…cient de mare
pentru a justi…ca folosirea teoremei limit¼ a central¼a.
În acest caz, poziţia intervalului este o funcţie de X şi de aceea este o funcţie
de selecţie. În contrast, m¼ arimea intervalului,
p este o funcţie doar de m¼ arimea
selecţiei n, …ind invers proporţional¼a cu n.
Intervalul de încredere [100 (1 )] % pentru m dat de relaţia (9.12) d¼ a de
asemenea o estimare a acurateţei estimatorului punctual X pentru m. Dup¼ a
cum vedem din …gura urm¼ atoare, adev¼ arata medie m se a‡a¼ în intervalul indicat
cu [100 (1 )] % încredere.
112
Deoarece X este centrul intervalului, distanţa dintre X şi m poate … cel mult
egal¼
a cu jum¼
atate din m¼
arimea intervalului.
Teorema 9.1. Cu [100 (1 )] % încredere, eroarea folosirii estimatorului
X pentru m este mai mic¼a decât
u =2
p :
n
113
Teorema 9.2. (Repartiţia t a lui Student) Consider¼
am o variabil¼
a
aleatoare T de…nit¼
a prin
1
V 2
T =U : (9.15)
n
Dac¼aU a 2 cu n grade de libertate, iar U şi V
N (0; 1), V este repartizat¼
sunt independente, atunci densitatea lui T are forma
n+1
n+1
2 t2 2
fT (t) = n p 1+ ; t 2 R: (9.16)
2 n n
şi
(n 1) S 2
V = 2
:
Atunci 1
V 2
Y =U ; (9.17)
n 1
unde U N (0; 1), iar V are repartiţia 2 cu (n 1) grade de libertate (vezi
teorema 7.1). Mai departe, se poate ar¼ a X şi S 2 sunt independente, deci
ata c¼
şi U şi V sunt independente. Din teorema 9.2, variabila aleatoare Y are astfel
o repartiţie t cu (n 1) grade de libertate.
Variabila aleatoare Y poate … folosit¼ a pentru a stabili intervale de încredere
pentru media m. Valoarea lui Y depinde de media necunoscut¼ a m, dar repartiţia
lui Y nu depinde de m.
Repartiţia t este tabelat¼
a în tabelul A.4 urm¼ator.
114
Fie tn; =2 valoarea astfel încât
P T > tn; =2 = ;
2
cu n reprezentând num¼
arul de grade de libertate (vezi …gura urm¼
atoare).
115
Avem
P tn 1; =2 < Y < tn 1; =2 =1 : (9.18)
Înlocuind Y din relaţia (9.14) în relaţia (9.18), un interval de încredere [100 (1 )] %
pentru media m este dat de
tn 1; =2 S tn 1; =2 S
P X p <m<X+ p =1 : (9.19)
n n
116
În acest exemplu = 0:05, n = 10, media de selecţie observat¼
a este
1
x= (120:5 + 97 + ::: + 97:3) = 112:4;
10
şi dispersia de selecţie observat¼ a este
1 h i
2 2 2
s2 = (120:5 112:4) + (97 112:4) + ::: + (97:3 112:4) = 1414:3:
9
Din tabelul A.4 g¼
asim t9;0:025 = 2:262. Înlocuind aceste valori în relaţia (9.19),
obţinem
P (85:5 < m < 139:3) = 0:95:
care d¼
a, înlocuind D din relaţia (9.20),
!
(n 1) S 2 2 (n 1) S 2
P 2 < < 2 =1 : (9.22)
n 1; =2 n 1;1 ( =2)
117
2
Tabelul A.5 d¼
a valori ale lui n; pentru diferite valori ale lui n şi .
118
a pentru construirea intervalelor de încredere pentru 2
Relaţia (9.22) este folosit¼
cu ambele margini …nite pentru o populaţie normal¼ a. Un interval de încredere
pentru 2 cu o singur¼ a margine …nit¼a este dat de (vezi …gura urm¼ atoare)
!
2 (n 1) S 2
P > 2 =1 : (9.23)
n 1;
119
2
Exemplul 9.5. Determin¼ am intervalele de încredere 95% pentru pentru
datele din exemplul 9.4.
Am v¼ azut în exemplul 9.4 c¼
a dispersia de selecţie observat¼
a este
s2 = 1414:3:
şi
2
P > 752:3 = 0:95:
120
10 Modele liniare. Estimarea parametrilor prin
metoda celor mai mici p¼ atrate. Elemente de
analiz¼
a discriminant¼
a liniar¼
a
10.1 Regresie liniar¼
a
Presupunem c¼ a variabila aleatoare Y este o funcţie de o variabil¼
a independent¼
a
şi relaţia lor este liniar¼
a, adic¼
a
E (Y ) = + x: (10.1)
Constantele şi sunt necunoscute şi trebuie estimate dintr-o selecţie de
valori ale lui Y cu valorile asociate lor ale lui x. Într-un singur experiment, x
va avea o anumit¼ a valoare xi şi media lui Y va lua valoarea
E (Yi ) = + xi : (10.2)
De…nim variabila aleatoare E prin
E=Y ( + x) : (10.3)
Modelul de regresie liniar¼a simpl¼a este
Y = + x + E; (10.4)
unde E are media 0 şi dispersia 2 , care coincide cu dispersia lui Y . Valoarea
lui 2 este necunoscut¼ a în general, dar este presupus¼ a a … constant¼ a şi nu o
funcţie de x.
Parametrii necunoscuţi şi sunt numiţi coe…cienţi de regresie, iar variabila
aleatoare E reprezint¼
a deviaţia lui Y în jurul mediei.
ei = yi b + b xi ; i = 1; n: (10.5)
121
Vedem c¼ a reziduurile sunt distanţele verticale dintre yi , valorile observate ale
lui Y , şi estimarea b + b x a adev¼ aratei drepte de regresie + x.
Teorema 10.1. Fie modelul de regresie liniar¼ a simpl¼
a dat de relaţia (10.4).
Fie (x1 ; y1 ) ; (x2 ; y2 ) ; :::; (xn ; yn ) valorile de selecţie observate ale lui Y cu valorile
asociate ale lui x. Presupunem c¼ a cel puţin 2 dintre x1 ; :::; xn sunt distincte.
Atunci estim¼ arile prin metoda celor mai mici p¼ atrate ale lui şi sunt
b=y b x; (10.7)
n
X
(xi x) (yi y)
b= i=1
; (10.8)
n
X 2
(xi x)
i=1
unde
122
n
1X
x= xi
n i=1
şi
n
1X
y= yi :
n i=1
Demonstraţie. Fie
Xn h i2
Q b; b = yi b + b xi =)
i=1
n
X h i
@Q
@b = 2 yi b + b xi ;
i=1
Xn h i
@Q
= 2xi yi b + b xi ;
@b
i=1
Xn
@2Q
@ b2
= 2 ( 1) = 2n > 0;
i=1
Xn n
X
@2Q
= 2xi ( 1) = 2 xi = 2nx;
@ b@ b
i=1 i=1
n
X Xn
@2Q
2 = 2xi ( xi ) = 2 x2i ;
@b
i=1 i=1
@2Q @2Q n
! n
!
X X
@ b2 @ b@ b 2 2 2
D= @2Q @2Q = 4n x2i nx = 4n x2i 2nx + nx =
@ b@ b
2
@b i=1
!
i=1
n
X n
X Xn n
X
1
4n x2i 2nx n xi + x2 = 4n x2i 2xxi + x2 =
i=1 i=1 i=1 i=1
n
X @2 Q
2 @ b2
>0
4n (xi x) > 0 =)
i=1 0 2 2
1
@ Q @ Q
@ b2 @ b@ b
HQ = @ @2Q @2Q
A pozitiv de…nit¼ a =) b şi b
a =) Q (strict) convex¼
@ b@ b
2
@b
care minimizeaz¼
a pe Q sunt soluţia sistemului
8 Xn Xn
( >
> b
@Q >
< nb + xi = yi
@b = 0 i=1 i=1
@Q () Xn X n X n ()
=0 >
>
@b >
: b xi + b x2i = xi yi
i=1 i=1 i=1
nb + nx b = ny (10.9)
n
X n
X
nxb + b x2i = xi yi : (10.10)
i=1 i=1
123
Ecuaţiile din ultimul sistem se numesc ecuaţii normale. Înmulţind (10.9) cu
x şi sc¼
azând-o din (10.10) )
Xn Xn X n Xn Xn
xi yi nxy xi yi x yi y xi + xy
b = i=1n vezi calculul lui D i=1 i=1 i=1 i=1
X = Xn =
2
x2i nx2 (xi x)
i=1 i=1
Xn X n
yi = + xi + ei ; i = 1; 2; :::; n: (10.11)
Fie 0 1 0 1 0 1
1 x1 y1 e1
B 1 x2 C B y2 C B e2 C
B C B C B C
C=B .. .. C; y=B .. C; e=B .. C;
@ . . A @ . A @ . A
1 xn yn en
şi
= :
y = C + e: (10.12)
Suma p¼
atratelor reziduurilor dat¼
a de relaţia (10.6) este acum
T
Q ( ) = eT e = (y C ) (y C ): (10.13)
rQ b = 0;
124
deci din ecuaţia normal¼
a
CT y C b = 0; (10.14)
sau
C T C b = C T y;
care d¼
a
1
b = CT C C T y: (10.15)
În cele de mai sus, matricea HQ ( ) este pozitiv de…nit¼ a şi inversa matricei C T C
exist¼
a dac¼a sunt cel puţin 2 valori distincte xi în selecţie.
Veri…c¼am c¼
a relaţia (10.15) este identic¼
a cu relaţiile (10.7) şi (10.8) observând
c¼
a 0 1
1 x1 0 1
B 1 x2 C n nx
1 1 ::: 1 B C B n C
CT C = B .. .
. C = @ nx X x2 A ;
x1 x2 ::: xn @ . . A i
i=1
1 xn
0 n
1
X
1 1 x2i nx C
!B
1
CT C = CT C = n @ A;
det C T C X i=1
n x2i nx2 nx n
i=1
0 1
y1 0 1
B C ny
1 1 ::: 1 B y2 C B X
n C
CT y = B C=@
x1 x2 ::: xn @
..
. A xi yi A
i=1
yn
şi
0 X
n X
n 1
y x2i x xi yi
B C
B i=1 i=1 C
0 10 B 1 X
n C
n
X ny B x2i nx2
C
x2i nx C B X B C
b = CT C 1 T 1 B n C B C
C y= 0
X
n 1 @ A@ A =B X
i=1
n C=
i=1 xi yi B C
n@ x2i nx2 A nx n B xi yi nxy C
i=1 B C
i=1 B i=1 C
@ X n
A
x2i nx2
i=1
0 X
n 1
xi yi nxy
B C 0 1
B y i=1
x C y bx
B X n C
B 2 nx2 C B X n C
B xi C B C
B C B (xi x)(yi y) C
B X n
i=1
C = B i=1 C:
B C B Xn C
B (x x)(yi y) C @ A
B i=1 i C (xi x)2
B C
@ Xn
A i=1
(xi x)2
i=1
125
Exemplul 10.1. Este de aşteptat ca randamentul procentual mediu, Y ,
dintr-un proces chimic s¼ a …e legat liniar de temperatura procesului, x, în C.
Determinaţi prin metoda celor mai mici p¼ atrate dreapta de regresie pentru E (Y )
pe baza a 10 observaţii date în tabelul
i 1 2 3 4 5 6 7 8 9 10
x ( C) 45 50 55 60 65 70 75 80 85 90
y 43 45 48 51 55 57 59 63 66 68
R. Pentru a folosi relaţiile (10.7) şi (10.8) avem nevoie de urm¼
atoarele can-
tit¼
aţi
n
1X 1 5 135
x= xi = (45 + 50 + ::: + 90) = = 67; 5;
n i=1 10 10
n
1X 1
y= yi = (43 + 45 + ::: + 68) = 55; 5;
n i=1 10
n
X 2
(xi x) = 2062; 5;
i=1
n
X
(xi x) (yi y) = 1182; 5:
i=1
126
Relaţiile de regresie sunt valabile doar pentru intervalul valorilor x reprezen-
tate de date. Astfel, dreapta de regresie estimat¼ a în exemplul 10.1 e valabil¼ a
doar pentru temperaturi între 45 C şi 90 C. Extrapolarea rezultatului în afara
acestui interval poate conduce la greşeli şi nu este valabil¼ a în general.
Analiza regresiei liniare ca cea f¼ acut¼
a în exemplul 10.1 este bazat¼ a pe pre-
supunerea c¼ a adev¼arata relaţie între E (Y ) şi x este liniar¼
a. Dac¼a relaţia este
neliniar¼a sau inexistent¼a, regresia liniar¼
a produce rezultate f¼ ar¼
a sens, chiar dac¼a
o linie dreapt¼ a pare s¼
a dea o bun¼ a potrivire a datelor.
10.1.2 Propriet¼
aţile estimatorilor prin metoda celor mai mici p¼
a-
trate
Fie A b şi B,
b estimatorii prin metoda celor mai mici p¼
atrate pentru , respectiv
şi …e !
Ab
b = : (10.16)
Bb
Din relaţia (10.15) avem
1
b = CT C C T Y; (10.17)
unde 0 1
Y1
B C
Y = @ ... A ; (10.18)
Yn
şi Yj ; j = 1; 2; :::; n, sunt independente şi identic repartizate în concordanţ¼
a cu
relaţia (10.4). Astfel, dac¼ a scriem
Y =C + E; (10.19)
127
2
atunci E este un vector aleator cu media 0 şi matricea de covarianţ¼
a = I,
I …ind matricea unitate de ordinul n.
Din relaţiile (10.17) şi (10.19), avem
1 1 1
E b = CT C C T E (Y) = C T C C T [C +E (E)] = C T C CT C =
(10.20)
De aici, estimatorii A b şi B
b pentru , respectiv , sunt nedeplasaţi.
Matricea de covarianţ¼ a cu b este dat¼
a asociat¼ a de, dup¼a cum rezult¼
a din
T 1
relaţia (10.17) şi lema 3.1, deoarece C C este simetric¼
a,
T 1 1
cov b =E b b = CT C C T cov (Y) C C T C :
2
Dar cov (Y) = I; astfel, avem
1 1 1
cov b = 2
CT C CT C CT C = 2
CT C : (10.21)
b şi
Elementele de pe diagonala matricei din relaţia (10.21) dau dispersiile lui A
b În termeni de elementele lui C, putem scrie
B.
n
X
2
x2i
b =
var A i=1
; (10.22)
n
X 2
n (xi x)
i=1
2
b =
var B (10.23)
n
X 2
(xi x)
i=1
Se vede c¼a aceste dispersii descresc când m¼ arimea selecţiei n creşte. Astfel,
rezult¼a din capitolul 8 c¼a aceşti estimatori sunt consistenţi. Pentru un n …xat,
dispersia lui B b poate … redus¼ a selectând xi -urile astfel încât numitorul relaţiei
(10.23) este maximizat; asta poate … f¼ acut împr¼aştiind xi -urile cât mai departe
posibil. În exemplul 10.1, presupunând c¼ a suntem liberi s¼ a alegem valorile lui
xi , calitatea lui b este îmbun¼ at¼aţit¼
a dac¼
a jum¼atate din citirile x sunt luate la
o extrem¼ a a intervalului temperaturii şi cealalt¼a jum¼ atate la cealalt¼ a extrem¼a.
Strategia de selecţie pentru minimizarea var A b pentru un n …xat este de a
face x pe cât posibil cât mai aproape de 0.
Sunt dispersiile date de relaţiile (10.22) şi (10.23) dispersii minime între
dispersiile estimatorilor nedeplasaţi pentru şi ? Un r¼ aspuns la aceast¼ a în-
trebare poate … a‡at comparând rezultatele date de relaţiile (10.22) şi (10.23)
cu marginile inferioare Rao-Cramer de…nite în secţiunea 8.1.2. Pentru a evalua
aceste margini, repartiţia lui Y trebuie s¼ a …e cunoscut¼ a. Totuşi, f¼
ar¼a a cunoaşte
repartiţia lui Y , se poate ar¼ata c¼ a tehnica celor mai mici p¼ atrate conduce la
128
estimatori liniari nedeplasaţi de dispersie minim¼a, adic¼ a, dintre toţi estimatorii
nedeplasaţi care sunt liniari în Y, estimatorii prin metoda celor mai mici p¼ atrate
au dispersie minim¼ a.
Teorema 10.2. Fie variabila aleatoare Y de…nit¼ a în relaţia (10.4). Fiind
dat¼a o selecţie (x1 ; Y1 ) ; (x2 ; Y2 ) ; :::; (xn ; Yn ) a lui Y cu valorile x asociate, esti-
matorii prin metoda celor mai mici p¼ atrate A b şi B
b daţi de relaţia (10.17) sunt
estimatori liniari nedeplasaţi de dispersie minim¼a pentru , respectiv .
Demonstraţie. Consider¼ am un estimator liniar nedeplasat de forma
h 1 T
i
= CT C C + G Y: (10.24)
Vrem s¼
a ar¼
at¼
am c¼ a dac¼a are dispersie minim¼a, atunci G = 0.
Datorit¼
a relaţiei (10.19), cerinţa de nedeplasare conduce la
GC = 0: (10.25)
Consider¼
am acum matricea de covarianţ¼
a
T
cov ( )=E ( )( ) : (10.26)
gij = 0; 8i; j
şi obţinem
G = 0: (10.27)
129
11 Regresie liniar¼
a simpl¼
a. Estimarea parametrilor
prin metoda celor mai mici p¼ atrate. Inter-
vale de încredere pentru parametrii de re-
gresie
2
11.1 Estimator nedeplasat pentru
Metoda celor mai mici p¼ atrate nu conduce la un estimator pentru dispersia 2
a lui Y , care este în general de asemenea o cantitate necunoscut¼a în modelele
de regresie liniar¼ a pentru un estimator pentru 2 este
a. O alegere intuitiv¼
n h
X i2
c2 = k Yi b + Bx
A b i ; (11.1)
i=1
unde coe…cientul k este ales astfel încât c2 este nedeplasat. Pentru a calcula
media lui c2 , observ¼
am c¼
a (vezi relaţia (10.7))
Yi b
A b i = Yi
Bx Y b
Bx b i = Yi
Bx Y b (xi
B x) : (11.2)
De aici rezult¼
a
n
X 2 n
X n
X
2
Yi b
A b i
Bx = Yi Y b2
B (xi x) ;
2
(11.3)
i=1 i=1 i=1
Se poate ar¼
ata c¼
a
n n
!
X 2 X
E c2 = kE b2 2 2
Yi Y B (xi x) = k (n 2) :
i=1 i=1
sau, datorit¼
a relaţiei (11.3),
" n n
#
X X
c2 = 1 Yi Y
2
b2
B (xi x)
2
: (11.6)
n 2 i=1 i=1
130
Exemplul 11.1. Pentru datele din exemplul 10.1, s¼
a se determine o estimare
a pentru 2 .
nedeplasat¼
Am obţinut în exemplul 10.1
n
X 2
(xi x) = 2062; 5;
i=1
b = 0; 57:
În plus, obţinem
n
X 2
(yi y) = 680; 5:
i=1
Relaţia (11.6) d¼
a
n
1X 1
y= yi = (9; 1 + 19; 2 + ::: + 130; 8) = 57; 59;
n i=1 14
n
X 2
(xi x) = 546; 09;
i=1
n
X 2
(yi y) = 17179; 54;
i=1
131
n
X
(xi x) (yi y) = 2862; 12:
i=1
b = 2862; 12 = 5; 24;
546; 09
b = 57; 59 5; 24 11; 11 = 0; 63
c2 = 1 17179; 54 5; 242 546; 09 = 182; 1:
12
Dreapta de regresie estimat¼
a împreun¼
a cu datele sunt ar¼
atate în …gura ur-
m¼
atoare.
p
Deviaţia standard estimat¼a este b = 182; 1 = 13; 49g=cm2 şi -banda este de
asemenea ar¼ at¼
a în …gur¼
a.
132
Când m¼ b B
arimea selecţiei n este mare, A; b şi A
b + Bx
b au o repartiţie normal¼
a pe
baza teoremei limit¼a central¼ a, indiferent de repartiţia lui Y .
Urm¼ am calea din secţiunea 9.2 pentru a stabili limite de încredere. Se pot
veri…ca urm¼ atoarele rezultate:
i) Fie c2 estimatorul nedeplasat pentru 2 de…nit de relaţia (11.6) şi …e
(n 2) c2
D= 2
: (11.7)
2
Rezult¼a din secţiunea 9.2 c¼
a D este o variabil¼
a aleatoare repartizat¼
a cu n 2
grade de libertate.
ii) Consider¼am variabilele aleatoare
b
A
v (11.8)
u
u c2 X 2
n
u xi
u
u n i=1
u X
tn (x x)2 i
i=1
şi
b
B
v ; (11.9)
u
u n c2
uX
t (x x)2
i
i=1
unde, dup¼ a cum se observ¼ a din relaţiile (10.20), (10.22) şi (10.23), şi sunt
b respectiv B,
mediile lui A, b iar numitorii sunt deviaţiile standard ale lui A, b
b cu
respectiv B, 2
estimat de c2 . Din secţiunea 9.2 rezult¼ a c¼
a …ecare dintre
aceste variabile aleatoare are o repartiţie t cu n 2 grade de libertate.
iii) Estimatorul E\ (Y ) pentru media lui Y este repartizat normal cu media
+ x şi dispersia
X n
1
n x2i +x2 2xx
\
var E b + Bx
(Y ) = var A b = var A b +2xcov A;
b +x2 var B b Bb = 2 i=1
=
X n
(xi x)2
2 3 i=1
6 7
2 61 (x x)2 7
6n + X
n 7 : (11.10)
4 2
5
(xi x)
i=1
133
De aici, urmând argumentarea din secţiunea 9.2, variabila aleatoare
\
E (Y ) ( + x)
v 2 3 (11.11)
u
u
u 6 7
u 6
u c2 6 1 + n(x x)2 7 7
u 4n X 5
t (x x)2 i
i=1
i=1
3) Un interval de [100 (1 )] % încredere pentru E (Y ) = + x este de-
terminat de (vezi relaţia (9.19))
v 2 3
u
u
u 6 7
u 6 2 7
\ u c2 6 1 (x x) 7
L1;2 = E (Y ) tn 2; =2 u 6 + n 7 (11.14)
u 4n X 5
t (xi x)
2
i=1
2
4) Un interval de [100 (1 )] % încredere pentru cu ambele margini …nite
este determinat de (vezi relaţia (9.22))
(n 2) c2
L1 = 2 ;
n 2; =2
(n 2) c2
(11.15)
L2 = 2 :
n 2;1 =2
2
Un interval de [100 (1 )] % încredere pentru cu o margine …nit¼
a este de-
terminat de (vezi relaţia (9.23))
(n 2) c2
L1 = 2 : (11.16)
n 1;
134
În …ecare caz, atât poziţia cât şi m¼
arimea intervalului variaz¼ a de la selecţie
la selecţie. În plus, intervalul de încredere pentru + x este o funcţie de x.
Dac¼ a se reprezint¼a valorile observate ale lui L1 şi L2 , ele formeaz¼
a o band¼a de
încredere în jurul dreptei de regresie estimate, dup¼ a cum este ar¼atat în …gura
urm¼ atoare.
\
E (Y ) = b + b x = 0; 63 + 5; 24x;
135
c2 = 182; 1:
136
12 Regresie liniar¼
a multipl¼
a. Alte modele de
regresie
12.1 Regresie liniar¼
a multipl¼
a
În regresia liniar¼
a multipl¼
a, modelul ia forma
E (Y ) = 0 + 1 x1 + 2 x2 + ::: + m xm : (12.1)
Din nou, presupunem c¼ a dispersia lui Y este 2 şi este independent¼ a de x1 ; x2 ; :::; xm .
Ca la regresia liniar¼ a simpl¼ a suntem interesaţi s¼ a estim¼ am cei m + 1 coe…-
cienţi de regresie 0 ; 1 ; :::; m pe baza unei selecţii a valorilor lui Y cu val-
orile lor asociate ale lui (x1 ; x2 ; :::; xm ). O selecţie de m¼ arime n în acest caz
ia forma (x11 ; x21 ; :::; xm1 ; Y1 ) ; (x12 ; x22 ; :::; xm2 ; Y2 ) ; :::; (x1n ; x2n ; :::; xmn ; Yn ).
Pentru …ecare set de valori xki ; k = 1; 2; :::; m, Yi este o observaţie indepen-
dent¼a din populaţia Y de…nit¼ a prin
Y = 0 + 1 x1 + 2 x2 + ::: + m xm + E: (12.2)
2
Ca mai înainte, E este eroarea aleatoare, cu media 0 şi dispersia .
Dac¼
a not¼
am
0 1 0 1 0 1
1 x11 x21 ::: xm1 y1 e1
B 1 x12 x22 ::: xm2 C B y2 C B e2 C
B C B C B C
C=B .. .. .. .. .. C; y=B .. C; e=B .. C
@ . . . . . A @ . A @ . A
1 x1n x2n ::: xmn yn en
şi 0 1
0
B C
B 1 C
=B .. C;
@ . A
m
137
regresiei liniare simple bazate pe relaţia (10.12) sunt din nou valabile în cazul
regresiei liniare multiple. Astfel, f¼
ar¼
a alt¼a demonstraţie, avem pentru soluţia
estim¼
arii prin metoda celor mai mici p¼ atrate b a lui (vezi relaţia (10.15))
1
b = CT C C T y: (12.5)
1
Existenţa matricei C T C cere ca s¼a existe cel puţin (m + 1) seturi distincte
de valori (x1i ; x2i ; :::; xmi ) în selecţie. C T C este o matrice (m + 1) (m + 1)
simetric¼
a.
Exemplul 12.1. Consumul lunar mediu de putere electric¼ a (Y ) într-o an-
umit¼a fabric¼
a este considerat a … liniar dependent de temperatura mediului
ambiant (x1 , în F ) şi num¼ arul de zile lucr¼ atoare din lun¼ a (x2 ). Consider¼am
datele lunare pe un an din tabelul urm¼ ator.
[
E (y) = b 0 + b 1 x1 + b 2 x2 = 33; 84 + 0; 39x1 + 10; 8x2 :
138
Deoarece relaţia (12.4) coincide cu cea din cazul regresiei liniare simple,
multe din rezultatele obţinute acolo privind propriet¼ aţile estimatorilor prin
metoda celor mai mici p¼ atrate pot … duplicate aici ţinând cont doar de noile
de…niţii ale matricei C şi vectorului .
Scriem estimatorul b pentru în forma
1
b = CT C C T Y: (12.6)
Observ¼
am c¼
a
1
E b = CT C C T E (Y) = : (12.7)
De aici, estimatorul prin metoda celor mai mici p¼ atrate b este din nou nede-
plasat. De asemenea, din relaţia (10.21) rezult¼
a c¼
a matricea de covarianţ¼
a pentru
b este
1
cov b = 2 C T C : (12.8)
139
Exemplul 12.2. În medie, rata creşterii populaţiei (Y ) asociat¼
a cu un oraş
dat variaz¼
a cu x, num¼
arul de ani dup¼
a 1970. Presupunând c¼ a
2
E (Y ) = 0 + 1x + 2x ;
calculaţi estim¼
arile prin metoda celor mai mici p¼
atrate pentru 0; 1 şi 2 pe
baza datelor din tabelul urm¼ ator.
Fie x1 = x, x2 = x2 şi 0 1
0
=@ 1
A:
2
140
13 Estimatori neparametrici ai unei densit¼
aţi de
repartiţie
13.1 Preliminarii
Fie X1 ; X2 ; :::; Xn o selecţie independent¼ a de m¼ arime n dintr-o populaţie X cu
o presupus¼ a densitate f (x; ) sau mas¼ a p(x; ), unde poate … speci…cat sau
nu. Not¼ am cu ipoteza H ipoteza c¼ a selecţia reprezint¼
a n valori ale unei variabile
aleatoare cu densitatea f (x; ) sau masa p(x; ). Aceast¼ a ipotez¼ a este numit¼ a
ipotez¼a simpl¼a când repartiţia este complet speci…cat¼ a, adic¼
a valorile parametru-
lui sunt speci…cate împreun¼ a cu forma funcţional¼ a a densit¼aţii sau masei; altfel
este o ipotez¼a compus¼a. Pentru a construi un criteriu pentru testarea ipotezelor
este necesar s¼ a …e stabilit¼a o ipotez¼a alternativ¼a împotriva c¼ areia ipoteza H
poate … testat¼ a. Un exemplu de ipotez¼ a alternativ¼a este alt¼ a repartiţie presu-
pus¼a sau, ca alt exemplu, ipoteza H poate … testat¼ a împotriva ipotezei alter-
native c¼ a ipoteza H nu este adev¼ arat¼a. Vom considera în continuare ultima
alegere.
141
2 câte 2 A1 ; A2 ; :::; Ak şi …e Ni num¼
arul Xj -urilor din Ai ; i = 1; 2; :::; k. Atunci
probabilit¼
aţile observate P (Ai ) sunt date de
Ni
P (Ai ) observat¼
a = ; i = 1; 2; :::; k: (13.1)
n
Probabilit¼ aţile teoretice P (Ai ) pot … obţinute din repartiţia presupus¼
a a popu-
laţiei. Le not¼ am cu
P (Ai ) teoretic¼
a = pi ; i = 1; 2; :::; k: (13.2)
O alegere logic¼
a a statisticii dând o m¼
asur¼
a a deviaţiei este
k
X 2
Ni
ci pi ; (13.3)
i=1
n
Xk 2 k
X X N2
2 k
n Ni (Ni npi ) i
D= pi = = n: (13.4)
p
i=1 i
n i=1
npi i=1
np i
Xk
n2i 2
d= n> k 1; ; (13.6)
i=1
npi
142
Deoarece D are o repartiţie chi-p¼ atrat cu (k 1) grade de libertate pentru n
mare, o valoare aproximativ¼ a pentru 2k 1; poate … g¼ asit¼
a din tabelul A.5 din
cursul 9 pentru repartiţia 2 când este speci…cat.
Probabilitatea a erorii de tipul I se numeşte nivel de semni…caţie în acest
context. Dup¼ a cum vedem din …gura de mai sus, reprezint¼ a aria de sub fD de
la dreapta lui 2k 1; . Punând = 0; 05, de exemplu, criteriul dat de relaţia
(13.6) implic¼
a faptul c¼ a respingem ipoteza H ori de câte ori m¼ asura deviaţiei d
calculat¼
a dintr-un set dat de valori de selecţie pic¼ a în regiunea de 5%. Cu alte
cuvinte, ne aştept¼
am s¼ a respingem H în aproximativ 5% din timpul când de fapt
H este adev¼ arat¼a. Ce nivel de semni…caţie trebuie adoptat într-o situaţie dat¼ a
depinde de cazul particular implicat. În practic¼ a, valori obişnuite pentru sunt
0; 001; 0; 01 şi 0; 05; o valoare a lui între 1% şi 5% este aproape semni…cativ¼a ;
o valoare între 0; 1% şi 1% este semni…cativ¼a, iar o valoare sub 0; 1% este înalt
semni…cativ¼a.
D¼am acum procedura pas cu pas pentru efectuarea testului 2 când repartiţia
unei populaţii X este complet speci…cat¼ a.
143
Pasul 2: calculeaz¼ a probabilit¼
aţile teoretice P (Ai ) = pi ; i = 1; 2; :::; k, cu
ajutorul repartiţiei presupuse.
Pasul 3: construieşte d dat de relaţia (13.6).
Pasul 4: alege o valoare a lui şi determin¼
a din tabelul A.5 pentru repar-
tiţia 2 cu (k 1) grade de libertate valoarea lui 2k 1; .
2
Pasul 5: respinge ipoteza H dac¼
ad> k 1; . Altfel, accept¼
a H.
Exemplul 13.1. 300 de becuri sunt testate pentru timpul de ardere t (în
ore) şi rezultatul este ar¼
atat în tabelul urm¼
ator.
Prima coloan¼ a d¼
a intervalele Ai , care sunt alese în acest caz s¼ a …e intervalele
pentru t date în tabelul anterior. Probabilit¼ aţile teoretice P (Ai ) = pi din
coloana a treia sunt calculate folosind relaţia (13.8). De exemplu,
Z 100
p1 = P (A1 ) = 0; 005e 0;005t dt = e 0;005t j100
0 = 1 e 0;5 = 0; 39;
0
144
Z 200
0;005t 0;005t 200 0;5 1
p2 = P (A2 ) = 0; 005e dt = e j100 =e e = 0; 24:
100
Numerele teoretice de apariţii prezise de model sunt date în coloana a patra a
tabelului, care, când este comparat¼ a cu coloana a doua, d¼
a o m¼asur¼
a a bun¼at¼
aţii
n2i
de potrivire a modelului cu datele. Coloana 5 ( npi ) este inclus¼
a pentru a facilita
calcularea lui d. Astfel, din relaţia (13.6) avem
Xk
n2i
d= n = 301; 7 300 = 1; 7:
i=1
npi
145
Intervalul x > 5 ar … fost combinat cu 4 < x 5 dac¼
a num¼
arul n7 ar … fost mai
mic decât 5.
Repartiţia presupus¼
a pentru X este
x t x 0;48
( t) e (0; 48) e
pX (x) = = ; x = 0; 1; 2; :::: (13.9)
x! x!
Astfel avem
i 1 0;48
(0; 48) e
pi = P (Ai ) = ; i = 1; 2; :::; 6:
(i 1)!
6
X
p7 = P (A7 ) = 1 pi :
i=1
2 2
Cu k = 7, valoarea lui k 1; = 6;0:01 este g¼
asit¼
a din tabelul A.5
2
6;0:01 = 16; 812:
2
Deoarece d > 6;0:01 , ipoteza este respins¼
a la nivelul de semni…caţie 1%.
146
în acest caz este întâi estimarea parametrilor şi apoi efectuarea testului 2 pen-
tru parametri cunoscuţi. Apare o complicaţie în aceea c¼ a probabilit¼
aţile teo-
retice pi de…nite de relaţia (13.2) sunt, …ind funcţii de parametrii repartiţiei,
funcţii de selecţie. Statistica D ia acum forma
k
X 2 k
X
n Ni Ni2
D= Pbi = n; (13.10)
Pbi
i=1
n nPbi
i=1
unde Pbi este un estimator pentru pi şi astfel o statistic¼ a. D este acum o funcţie
mult mai complicat¼ a de X1 ; X2 ; :::; Xn . Care este noua repartiţie a lui D?
Problema determin¼ arii repartiţiei limit¼
a a lui D în aceast¼ a situaţie a fost
mai întâi considerat¼ a de Fischer (1922, 1924), care a ar¼ atat c¼
a, când n ! 1,
repartiţia lui D trebuie modi…cat¼ a, şi modi…carea depinde de metoda de estimare
a parametrilor folosit¼ a. Din fericire, pentru o clas¼ a de metode importante de
estimare, ca matoda verosimilit¼ aţii maxime, modi…carea cerut¼ a este simpl¼ a, şi
anume, statistica D tinde la o repartiţie chi p¼ atrat când n ! 1, dar acum cu
(k r 1) grade de libertate, unde r este num¼ arul de parametri de estimat din
repartiţia presupus¼a. Cu alte cuvinte, este doar necesar de a reduce num¼ arul de
grade de libertate în repartiţia limit¼ a de…nit¼
a de relaţia (13.5) cu unu pentru
…ecare parametru estimat din selecţie.
D¼
am acum procedura pas cu pas pentru cazul când r parametri din repartiţie
trebuie estimaţi din date.
147
Pe baza acestor observaţii, determinaţi dac¼
a o repartiţie Poisson este potrivit¼
a
pentru X, num¼ arul de sosiri pe minut, la nivelul de semni…caţie de 5%.
Repartiţia presupus¼a este
x
e
pX (x) = ; x = 0; 1; 2; :::; (13.11)
x!
unde parametrul trebuie s¼ a …e estimat din date. Astfel, r = 1.
Întâi determin¼am intervale corespunz¼atoare Ai astfel încât ni 5; 8i; acestea
sunt ar¼
atate în prima coloan¼a a tabelului urm¼ator.
148
De aici k = 11.
Estimarea de verosimilitate maxim¼
a pentru este dat¼
a de
X n
b=x= 1 xj = 9; 09:
n j=1
p2 = pX (5) = 0; 058:
Aceste probabilit¼
aţi teoretice sunt date în a treia coloan¼
a a tabelului.
Din coloana 5 a tabelului obţinem
Xk
n2i
d= n = 119; 56 106 = 13; 56:
i=1
npi
149
Exemplul 10.4. Pe baza datelor c¼ aderilor de z¼
apad¼
a dintre 1909 şi 1979 din
tabelul urm¼ator, testaţi ipoteza: c¼aderea anual¼ a de z¼
apad¼a poate … modelat¼ a
printr-o repartiţie normal¼a la nivelul de semni…caţie de 5%.
70
1 X
b =x=
m xj = 83; 6;
70 j=1
X 70
c2 = 69 s2 = 1 (xj
2
83; 6) = 777; 4:
70 70 j=1
150
De exemplu, primele dou¼a dintre aceste probabilit¼ aţi sunt
56
p 83;6
P (A1 ) = P (X 56) = P U 777;4
= F U ( 0; 99) = 1 FU (0; 99) =
1 0; 8389 ' 0; 161;
P (A2 ) = P (56 < X 72) = P ( 0; 99 < U 0; 416) = [1 FU (0; 416)]
[1 FU (0; 99)] = 0; 339 0; 161 = 0; 178:
Informaţia dat¼
a mai sus ne permite s¼ a construim restul tabelului. De aici,
avem
Xk
n2i
d= n = 72; 4 70 = 2; 4:
i=1
npi
Num¼arul de grade de libertate în acest caz este k r 1 = 6 2 1 = 3. Tabelul
A.5 d¼
a astfel
2
3;0:05 = 7; 815:
151
Statistica test folosit¼
a în acest caz este
n n i
D2 = max F 0 X(i) FX X(i) = max FX X(i) ; (13.12)
i=1 i=1 n
unde X(i) este a i-a statistic¼ a de ordine a selecţiei. Statistica D2 m¼ asoar¼a
astfel maximul valorilor absolute ale celor n diferenţe dintre funcţia de repar-
tiţie observat¼
a şi funcţia de repartiţie presupus¼a evaluat¼ a pentru selecţia obser-
vat¼ a. În cazul când trebuie estimaţi parametri din repartiţia presupus¼ a, valorile
FX X(i) sunt obţinute folosind estim¼ arile.
În timp ce repartiţia lui D2 este di…cil de obţinut analitic, funcţia ei de
repartiţie poate … calculat¼ a numeric şi tabelat¼ a. Se poate ar¼ ata c¼a repartiţia
lui D2 este independent¼ a de repartiţia presupus¼ a şi este o funcţie doar de n,
m¼ arimea selecţiei.
Efectuarea testului K-S este asem¼ atoare cu cea a testului 2 . La un nivel
an¼
de semni…caţie speci…cat , regula este s¼ a se resping¼a ipoteza H dac¼ a d2 > cn; ;
altfel, se accept¼a H. Aici, d2 este valoarea de selecţie a lui D2 , şi valoarea cn;
este de…nit¼ a prin
P (D2 > cn; ) = : (13.13)
Valorile cn; pentru = 0:01; 0:05 şi 0:1 sunt date în tabelul A.6 urm¼
ator ca
funcţii de n.
152
Sunt şi diferenţe importante între acest test şi testul 2 . În timp ce testul
2
este un test de selecţie mare, testul K-S este valabil pentru toate valorile
lui n. Mai departe, testul K-S foloseşte valorile selecţiei în forma lor nealterat¼ a
şi neagregat¼ a, în timp ce prelucrarea datelor este necesar¼ a în efectarea testului
2
. Ca dezavantaje, testul K-S este valabil doar pentru repartiţii continue. De
asemenea, valorile lui cn; din tabelul A.6 sunt bazate pe o repartiţie presu-
pus¼ a speci…cat¼ a complet. Când valorile parametrilor trebuie estimate, nu este
disponibil¼ a o metod¼ a riguroas¼
a de ajustare. În aceste cazuri poate … speci…cat
doar c¼ a valorile lui cn; trebuie reduse puţin.
Procedura pas cu pas pentru efectuarea testului K-S este:
153
10
c2 = n 1 1 X 2
s2 = (xj 30:3) = 3:14:
n 10 j=1
27:4 30:3
FX (27:4) = FU p = FU ( 1:64) = 1 FU (1:64) = 1 0:9495 = 0:0505;
3:14
28:7 30:3
FX (28:7) = FU p = FU ( 0:9) = 1 FU (0:9) = 1 0:8159 = 0:1841;
3:14
şi aşa mai departe.
Pentru a determina d2 este constructiv s¼ am gra…c F 0 (x) şi FX (x)
a reprezent¼
ca funcţii de x, ca în …gura urm¼atoare.
Se vede din …gur¼ a maximul diferenţelor dintre F 0 (x) şi FX (x) apare în
a c¼
x = x(4) = 29:1. De aici,
154
Cu = 0:05 şi n = 10, tabelul A.6 d¼
a
c10;0:05 = 0:41:
155
14 Introducere în metoda MCMC
În multe aplicaţii ale model¼
arii statistice, analistul de date vrea s¼a foloseasc¼a
un model mai complex pentru un set de date, dar este forţat s¼ a recurg¼ a la
un model suprasimpli…cat pentru a folosi tehnicile disponibile. Metoda MCMC
(prescurtare de la Markov chain Monte Carlo) este bazat¼ a pe simulare şi permite
statisticianului sau inginerului s¼
a examineze datele folosind modele statistice
realiste.
14.1 Inferenţ¼
a bayesian¼
a
Incertitudinea despre valorile parametrilor necunoscuţi se poate reprezenta prin
repartiţii de probabilitate şi se poate proceda ca şi cum parametrii ar … can-
tit¼
aţi aleatoare. Dac¼
a D reprezint¼ a datele care sunt observate şi parametrii
modelului, atunci, pentru a face orice inferenţ¼ a, trebuie s¼ a ştim repartiţia de
probabilitate comun¼ a P (D; ) peste toate cantit¼ aţile aleatoare. Permitem lui
s¼
a …e multidimensional. Repartiţia comun¼ a poate … scris¼ a
P (D; ) = P ( ) P (Dj ) ;
P ( ) P (Dj )
P ( jD) = R : (14.1)
P ( ) P (Dj ) d
Relaţia (14.1) d¼
a repartiţia lui condiţionat¼a de datele observate D. Deoarece
numitorul relaţiei (14.1) nu este o funcţie de (pentru c¼a integr¼
am în raport cu
), putem scrie proporţionalitatea
P ( jD) / P ( ) P (Dj ) = P ( ) L ( ; D) :
156
Schimb¼ am notaţia pentru a o face mai general¼ a. Fie X un vector de d
variabile aleatoare, cu repartiţia notat¼
a (x). Scopul este de a obţine media
R
f (x) (x) dx
E (f (X)) = R : (14.3)
(x) dx
157
va converge la o repartiţie staţionar¼
a, care este notat¼
a cu . Când t creşte, Xt
devin dependente de .
S¼a presupunem c¼ a Xt ; t = m + 1; :::; n, au repartiţia staţionar¼
a . Putem
îndep¼arta primele m iterate şi folosi pe cele n m r¼ amase împreun¼ a cu relaţia
(14.4) pentru a obţine o estimare a mediei dup¼ a cum urmeaz¼ a
n
X
1
E (f (X)) f (Xt ) : (14.5)
n m t=m+1
Geyer a sugerat în 1992 c¼a m poate … între 1% şi 2% din n, unde n este su…cient
de mare pentru a obţine precizie adecvat¼ a în estimarea dat¼ a de relaţia (14.5).
Cât de mare ar trebui s¼ a …e n pentru a obţine precizia cerut¼ a în estimare?
Calculul dispersiei estim¼arii date de relaţia (14.5) este di…cil, deoarece Xt nu
sunt independente. Un mod de a determina n prin simulare este de a genera
câteva lanţuri Markov în paralel, …ecare cu o valoare de start diferit¼
a. Estim¼arile
din relaţia (14.5) sunt comparate şi dac¼a diferenţa dintre ele este prea mare,
atunci lungimea lanţurilor trebuie crescut¼a.
şi
n
X
2 1 2
S;j = Xt;j X ;j :
n m 1 t=m+1
BIBLIOGRAFIE
158