Sunteți pe pagina 1din 20

Teoria probabilita¼ţilor şi statistica¼

matematica¼

arb¼
acioru Iuliana Carmen
CURSUL 10
Cursul 10

2
Cuprins

1 Variabile aleatoare 5
1.1 Corelaţie sau covarianţ¼
a . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Coe…cient de corelaţie. Matrice de corelaţie . . . . . . . . . . . . . 7
1.3 Rapoarte de corelaţie . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4 Funcţii de regresie . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

Index 19

3
Cursul 10

4
Capitolul 1

Variabile aleatoare

1.1 Corelaţie sau covarianţ¼


a
De…niţia 1.1.1 Fie vectorul aleator Z = (X; Y ) : ! R2 : Se numeşte:

1. Moment iniţial de ordinul (r; s) al vectorului aleator Z şi se noteaz¼a cu


Mrs = Mrs (Z) expresia, dac¼a exist¼a,

8 PP
>
< xri yjs ij pentru Z discret
i2I j2J
Mrs (Z) = R R r s (1.1)
>
: x y f (x; y) dxdy pentru Z continuu
R2

2. Moment centrat de ordinul (r; s) al vectorului aleator Z şi se noteaz¼a cu


mrs = mrs (Z) expresia, dac¼a exist¼a,

8 PP
>
< (xi M10 )r (yj M01 )s ij pentru Z discret
i2I j2J
mrs (Z) = R R
>
: (x M10 )r (y M01 )s f (x; y) dxdy pentru Z continuu
R2
(1.2)
unde I N; J N; M10 = M10 (Z) ; M01 = M01 (Z) :

Observaţia 1.1.2 Din (1.1) şi (1.2) se remarc¼a faptul c¼a:

5
Cursul 10

M10 (Z) = M (X) ; M20 (Z) = M X 2 ; m20 (Z) = D2 (X)


M01 (Z) = M (Y ) ; M02 (Z) = M Y 2 ; m02 (Z) = D2 (Y )
M11 (Z) = M (XY ) ; m11 (Z) = M (XY ) M (X) M (Y )
(1.3)

De…niţia 1.1.3 Fie vectorul aleator Z = (X; Y ) : ! R2 : Se numeşte corelaţie


sau covarianţ¼ a a variabileleor aleatoare X şi Y şi se noteaz¼a cu cov (X; Y )
expresia, dac¼a exist¼a,

cov (X; Y ) = m11 (Z) = m11 (X; Y ) = M [(X M (X)) (Y M (Y ))] (1.4)

Propoziţia 1.1.4 Dac¼a exist¼a, covarianţa variabileleor aleatoare X şi Y are


urm¼atoarele propriet¼aţi:

1. cov (X; Y ) = M (XY ) M (X) M (Y ) 8X şi Y ;

2. cov (X; Y ) = cov (Y; X) 8X şi Y ;

3. Dac¼a X şi Y sunt independente probabilistic atunci cov (X; Y ) = 0 dar nu


şi reciproc;

4. D (X) D (Y ) cov (X; Y ) D (X) D (Y ) 8X şi Y ;

5. cov (X; X) = D2 (X) ;


!
P
m P
n P
m P
n
6. cov ai Xi ; bj Yj = ai bj cov (Xi ; Yj ) 8 variabilele aleatoare
i=1 j=1 i=1 j=1
(Xi ) şi (Yj ) şi 8 constantele reale (ai ) şi (bj ) ; 1 i m; 1 j n:

Demonstraţie: A…rmaţiile 1, 2, 3, 5 sunt evidente iar a…rmaţia 6 rezult¼ a


imediat prin calcul direct pornind de la de…niţie şi de la a…rmaţia 1.
Pentru a…rmaţia 4 avem în vedere c¼
a pentru orice variabile aleatoare neconstante
X şi Y are loc relaţia:

0 D2 (X Y ) = D2 (X) + D2 (Y ) 2cov (X; Y )


" #
2
2 D (X) cov (X; Y ) D (X)
= D (Y ) 2 +1
D (Y ) D (X) D (Y ) D (Y )

6
Teoria probabilit¼
aţilor şi statistic¼
a matematic¼
a

în care expresiile din paranteza p¼ atrat¼a (ca trinoame de gradul doi în variabila
D (X)
strict pozitiv¼
at= ) sunt pozitive dac¼ a are loc inegalitatea:
D (Y )
(cov (X; Y ))2 D2 (X) D2 (Y )
ceea ce conduce la a…rmaţia 4 şi astfel demonstraţia este încheiat¼a.

Observaţia 1.1.5 Dac¼a avem cov (X; Y ) = 0 f¼ar¼a ca X şi Y s¼a …e independente,
atunci vom spune c¼a variabilele aleatoare X şi Y sunt necorelate.
În cazul în care cov (X; Y ) 6= 0 se spune c¼a variabilele aleatoare X şi Y sunt:

1. pozitiv corelate, dac¼a avem cov (X; Y ) > 0;

2. negativ corelate, dac¼a avem cov (X; Y ) < 0:

Deoarece intervalul în care cov (X; Y ) ia valori este su…cient de mare şi nu
are margini …xe, este greu de precizat gradul de dependenţ¼a dintre X şi Y pentru
a aprecia dac¼a sunt puternic corelate sau nu.
Acest fapt a impus o aşa zis¼a normare a indicatorului corelaţiei pentru ca
m¼asura gradului de dependenţ¼ a s¼a ia valori într-un interval …x, indiferent de
variabilele studiate.

1.2 Coe…cient de corelaţie. Matrice de corelaţie


De…niţia 1.2.1 Fie vectorul aleator Z = (X; Y ) : ! R2 : Se numeşte coe…cient
de corelaţie dintre variabilele aleatoare X şi Y şi se noteaz¼a cu (X; Y ) raportul,
dac¼a exist¼a,
cov (X; Y )
(X; Y ) = (1.5)
D (X) D (Y )

Observaţia 1.2.2 Condiţiilor de existenţ¼a ale corelaţiilor li se mai adaug¼a acum


şi precizarea c¼a variabilele aleatoare X şi Y sunt neconstante, cu probabilitatea
1, ceea ce înseamn¼a D (X) 6= 0; D (Y ) 6= 0; pentru raportul (1.5).

Propoziţia 1.2.3 Dac¼a exist¼a, coe…cientul de corelaţie dintre variabilele aleatoare


X şi Y are urm¼atoarele propriet¼aţi:

1. (X; Y ) = (Y; X) ,(8) X şi Y ;

7
Cursul 10

2. Dac¼a X şi Y sunt independente probabilistic atunci (X; Y ) = 0 dar nu şi


reciproc;
3. 1 (X; Y ) 1 (8) X şi Y ;
4. Dac¼a (X; Y ) = 1 atunci Y = aX + b cu a > 0 şi dac¼a (X; Y ) = 1
atunci Y = aX + b cu a < 0;
5. Dac¼a Y = aX + b atunci (X; Y ) = 1 dac¼a a > 0 şi (X; Y ) = 1 dac¼a
a < 0;
6. (aX + b; cY + d) = (X; Y ) dac¼a ac > 0 şi (aX + b; cY + d) = (X; Y )
dac¼a ac < 0:
Demonstraţie: Conform propoziţiei anterioare punctul(2) avem:
cov (X; Y ) cov (Y; X)
1. (X; Y ) = = = (Y; X) ;
D (X) D (Y ) D (X) D (Y )
2. Dac¼ a X şi Y sunt independente probabilistic atunci cov (X; Y ) = 0 deci
cov (X; Y )
(X; Y ) = = 0;
D (X) D (Y )
3. Ştim c¼ a D (X) D (Y ) cov (X; Y ) D (X) D (Y ) :
Împ¼arţind aceast¼ a dubl¼a inegalitate prin D (X) D (Y ) obţinem inegalitatea ce
trebuia demonstrat¼ a;
X M (X) Y M (Y )
4. Consider¼ am variabilele aleatoare X1 = ; Y1 = : Avem:
D(X) D(Y )
X M (X) Y M (Y )
M (X1 ) = M = 0; M (Y1 ) = M = 0;
D(X) D(Y )
X 2 2XM (X) + M 2 (X) M X2 2M (X) M (X) + M 2 (X)
M X12 = M =
D2 (X) D2 (X)
M X 2 2
M (X)
= 2
= 1;
D (X)
X M (X) D2 (X)
D2 (X1 ) = D2 = 2 = 1;
D(X) D (X)
Y 2 2Y M (Y ) + M 2 (Y ) M Y2 2M (Y ) M (Y ) + M 2 (Y )
M Y12 = M =
D2 (Y ) D2 (Y )
2
M (Y ) M Y 2
= = 1;
D2 (Y )
Y M (Y ) D2 (Y )
D2 (Y1 ) = D2 = 2 = 1;
D(Y ) D (Y )
X M (X) Y M (Y ) M [(X M (X)) (Y M (Y ))]
M (X1 Y1 ) = M =
D(X) D(Y ) D(X)D(Y )

8
Teoria probabilit¼
aţilor şi statistic¼
a matematic¼
a

cov (X; Y )
= = (X; Y ) ;
D(X)D(Y )
cov (X1 ; Y1 ) = M [(X1 M (X1 )) (Y1 M (Y1 ))] = M (X1 Y1 ) M (X1 ) M (Y1 )
| {z }
0
= M (X1 Y1 ) = (X; Y ) ;
cov (X1 ; Y1 )
(X1 ; Y1 ) = = cov (X1 ; Y1 ) = (X; Y ) :
D (X1 ) D (Y1 )
Prin ipotez¼ a atunci când (X; Y ) = 1 avem conform celor de mai sus c¼ a (X1 ; Y1 ) =
1 şih deducem ca i urmare a acestui fapt c¼ a:
2 2
M (X1 Y1 ) = M X1 2M (X1 Y1 ) + M Y12 = 1 2 (X; Y ) + 1 = 0
ceea ce înseamn¼ a c¼
a X1 = Y1 şi ţinând cont de expresiile acestora rezult¼
a c¼
a:
X M (X) Y M (Y )
= , D(Y ) (X M (X)) = D(X) (Y M (Y ))
D(X) D(Y )
D(Y ) D(Y )
,Y =X + M (Y ) M (X) + M (Y )
D(X) D(X)
| {z } | {z }
a b
adic¼a Y este de forma Y = aX + b cu a > 0:
Atunci
h când (X;i Y ) = 1 avem (X1 ; Y1 ) = 1 şi prin urmare
2
M (X1 + Y1 ) = M X12 + 2M (X1 Y1 ) + M Y12 = 1 2 (X; Y ) + 1 = 0
ceea ce înseamn¼ a c¼
a X1 = Y1 şi ţinând cont de expresiile acestora rezult¼
a c¼
a:
X M (X) Y + M (Y )
= , D(Y ) (X M (X)) = D(X) ( Y + M (Y ))
D(X) D(Y )
D(Y ) D(Y )
,Y = X + M (Y ) + M (X)
D(X) D(X)
| {z } | {z }
a b
adic¼
a Y este de forma Y = aX + b cu a < 0:
5. În ipoteza c¼a Y = aX + b avem relaţiile:
D (Y ) = D (aX + b) = a2 D2 (X);
2 2

M (X Y ) = M (X (aX + b)) = M aX 2 + bX = aM (X 2 ) + bM (X);


M (X) M (Y ) = M (X)M (aX + b) = aM 2 (X) + bM (X);
cov (X; Y ) M (X Y ) M (X) M (Y )
(X; Y ) = =
D(X)D(Y ) D(X)D(Y )
aM (X 2 ) + bM (X) aM 2 (X) bM (X)
=
D(X)D(Y )
a M (X 2 ) M 2 (X) aD2 (X) D(X) D(X)
= = =a =a = 1 dac¼
aa>0
D(X)D(Y ) D(X)D(Y ) D(Y ) aD(X)
respectiv a < 0:

9
Cursul 10

cov (aX + b; cY + d)
6. (aX + b; cY + d) =
D(aX + b)D(cY + d)
M [(aX + b) (cY + d)] M (aX + b) M (cY + d)
=
D(aX + b)D(cY + d)
acM (X Y ) + adM (X) + bcM (Y ) + bd (aM (X) + b) (cM (Y ) + d)
=
aD(X) cD(Y )
acM (X Y ) acM (X) M (Y ) ac [M (X Y ) M (X) M (Y )]
= =
acD(X)D(Y ) acD(X)D(Y )
ac cov (X; Y )
= = (X; Y ) dac¼
a ac > 0 respectiv ac < 0:
acD(X)D(Y )

Observaţia 1.2.4 De remarcat faptul c¼a din propoziţia (1.2.3) avem:

(X; X) = 1 şi (X; X) = 1

Observaţia 1.2.5 Pentru demonstraţia a…rmaţiei 4. din propoziţia (1.2.3) precum


şi a a…rmaţiei 3. din propoziţia (1.1.4) se poate considera de asemenea variabila
aleatoare:
U = t (X M (X)) + (Y M (Y )) ; t 2 R
constatând f¼ar¼a nici o di…cultate c¼a pentru 8 t 2 R avem:

0 M U 2 = t2 D2 (X) + 2t cov (X; Y ) + D2 (Y )

fapt care este posibil dac¼a şi numai dac¼a (cov (X; Y ))2 D2 (X) D2 (Y ); de unde
rezult¼a simplu a…rmaţiile menţionate.

Observaţia 1.2.6 Dac¼a (X; Y ) = 0 f¼ar¼a ca X şi Y s¼a …e independente probabilistic


atunci se spune c¼a X şi Y sunt necorelate. În practic¼a se mai spune c¼a:

1. X şi Y sunt pozitiv perfect corelate dac¼a (X; Y ) = 1;

2. X şi Y sunt negativ perfect corelate dac¼a (X; Y ) = 1;

3. X şi Y sunt puternic pozitiv (sau negativ) corelate dac¼a


0; 75 (X; Y ) < 1 (sau 1 < (X; Y ) 0; 75) ;

10
Teoria probabilit¼
aţilor şi statistic¼
a matematic¼
a

4. X şi Y sunt slab pozitiv (sau negativ) corelate dac¼a 0 < (X; Y ) <
0; 25
(sau 0; 25 < (X; Y ) < 0) ;

marginile valorice decizionale …ind alese convenţional.

Exemplul 1.2.7 Fie Z = (X; Y ) un vector aleator discret a c¼arui repartiţie


probabilist¼a este dat¼a în tabelul de mai jos. Calculaţi coe…cientul de corelaţie
(X; Y ) :
XnY -1 0 1 2 pi
1 1/12 1/24 1/48 1/48 8=48
2 1/24 1/6 1/24 1/12 8=24
3 1/8 1/8 1/8 1/8 4=8
qj 6=24 8=24 9=48 11=48 1

Soluţie: Deducem imediat c¼ a:


8 8 4 7
M (X) = 1 +2 +3 = ;
48 24 8 3
2 8 8 4
M X =1 +4 +9 = 6;
48 24 8
49 5
D2 (X) = M X 2 M 2 (X) = 6 = ;
9 9
6 8 9 11 19
M (Y ) = 1 +0 +1 +2 = ;
24 24 48 48 48
6 8 9 11 65
M Y2 =1 +0 +1 +4 = ;
24 24 48 48 48
2
65 19 2759
D2 (Y ) = M Y 2 M 2 (Y ) = = ;
48 48 2304
1 1 1 1 1 1 1 1
M (X Y ) = 1 1 +0 +1 +2 +2 1 +0 +1 2
12 24 48 48 24 6 24 12
1 1 1 1 95
+3 1 +0 +1 +2 = ;
8 8 8 8 144
95 7 19 19
cov (X; Y ) = M (X Y ) M (X) M (Y ) = = ;
144 3 48 72
19
cov (X; Y ) 38
(X; Y ) = = r 72 = p = 0; 323 54
D (X) D (Y ) 5 2759 13 795
9 2304

11
Cursul 10

Observaţia 1.2.8 Coe…cientul de corelaţie (X; Y ) reprezint¼a prima m¼asur¼a a


gradului de dependenţ¼a în sens clasic. Introdus¼a de c¼atre statisticianul englez
K. Pearson în anul 1901 ca rod al colabor¼arii acestuia cu antropologul englez
F. Galton, aceast¼a m¼asur¼a a gradului de dependenţ¼a a fost criticat¼a înc¼a de la
apariţia ei pentru diverse motive, printre care şi acelea c¼a:

1. Este dependent¼ a de valorile vectorului aleator (X; Y ) şi ca urmare nu este


aplicabil¼
a pentru cazul variabilelor aleatoare necantitative;

2. Nu este precis¼
a în cazul independenţei şi al necorel¼
arii deoarece dac¼
a (X; Y ) =
0 nu exist¼
a un r¼aspuns categoric (în sensul independenţei sau necorel¼ arii);

3. Nu poate … extins¼a la mai mult de dou¼ a variabile aleatoare sau chiar la doi
sau mai mulţi vectori aleatori, fapte cerute de practic¼a.

Dac¼a la prima obiecţie a dat chiar K. Pearson un r¼ aspuns, pentru celelalte


dou¼a nu s-au dat r¼aspunsuri clare decât dup¼ a apariţia în 1948 a teoriei matematice
a informaţiei, rezultate remarcabile în acest sens obţinând şcoala româneasc¼ a de
matematic¼ a (prin colectivul şi tezele de doctorat coordonate de profesorul Silviu
Guiaşu de la Universitatea din Bucureşti) introducând m¼ asurile entropice ale
dependenţei dintre variabile aleatoare sau vectori aleatori cu o larg¼ a aplicabilitate
teoretic¼
a şi practic¼
a.

1.3 Rapoarte de corelaţie


De…niţia 1.3.1 Dac¼a Z = (X; Y ) este un vector aleator bidimensional atunci:

1. expresia
2 M (D2 (X Y ))
XY = ; D2 (X) 6= 0 (1.6)
D2 (X)
se numeşte raport de corelaţie al lui X faţ¼
a de Y ;

2. expresia
2 M (D2 (Y X))
Y X = ; D2 (Y ) 6= 0 (1.7)
D2 (Y )
se numeşte raport de corelaţie al lui Y faţ¼
a de X:

12
Teoria probabilit¼
aţilor şi statistic¼
a matematic¼
a

Observaţia 1.3.2 Raportul de corelaţie este o m¼asur¼a a dependenţei unilaterale


a unei componente a vectorului aleator Z = (X; Y ) faţ¼a de cealalt¼a component¼a.
În general,
2 2
X Y 6= Y X

ceea ce înseamn¼a c¼a dependenţa unilateral¼a nu este simetric¼a.


S¼a mai remarc¼am de asemenea c¼a:
2 0; cu egalitate dac¼ a D2 (X Y ) = 0;
a şi numai dac¼
XY
2 1; cu egalitate dac¼ a M D2 (X Y ) = D2 (X) :
a şi numai dac¼
Y X

Observaţia 1.3.3 Egalitatea D2 (X Y ) = 0 are loc dac¼a şi numai dac¼a X şi Y
sunt dependente funcţional iar egalitatea M D2 (X Y ) = D2 (X) are loc dac¼a
şi numai dac¼a X şi Y sunt independente, ceea ce justi…c¼a interesul pentru raportul
de corelaţie sau pentru o m¼asur¼a complementar¼a a dependenţei unilaterale dat¼a
de expresia:
2 2
XY =1 XY (1.8)

Exemplul 1.3.4 Consider¼am exemplul


! anterior care ilustreaz¼a relaţiile:
!
7=9 1=3 7=9 7=11 7=13
M (X Y ) : şi M (Y X) :
3=8 1=4 3=8 11=24 13=24
! !
32=81 8=9 32=81 50=121 68=169
D2 (X Y ) : şi D2 (Y X) :
3=8 1=4 3=8 11=24 13=24
2
constatând c¼a întâmpl¼ator, dou¼a valori ale lui D (Y X) coincid.
Deducem c¼a
3 32 1 8 14 143
M D2 (X Y ) = 2 + = ; D2 (X) =
8 81 4 9 27 144
şi ca urmare avem raportul de corelaţie

2 224 2 2 205
XY = sau XY =1 Y X =
429 429
Analog deducem c¼a:
11 50 13 68 233 3
M D2 (Y X) = + = D2 (Y ) =
24 121 24 169 572 4

13
Cursul 10

şi ca urmare rezult¼a cel¼alalt raport de corelaţie

2 233 2 2 196
XY = sau XY =1 Y X =
429 429
Deoarece 2X Y < 2Y X sau 2X Y > 2Y X se spune c¼a X depinde de Y mai mult
decât depinde Y de X:
S¼a mai constat¼am pentru aceleaşi variabile aleatoare c¼a
14
(X; Y ) = p ' 0; 68
429
fapt care indic¼a o corelaţie a grupului (X; Y ) destul de mare.

Observaţia 1.3.5 Rapoartele de corelaţie completeaz¼a studiul dependenţei dintre


dou¼a variabile aleatoare. Ele pot … extinse şi la mai mult de dou¼a variabile
aleatoare, odat¼a cu extensia variabilelor aleatoare condiţionate de vectori aleatori.

1.4 Funcţii de regresie


De…niţia 1.4.1 Fiind dat vectorul aleator bidimensional Z = (X; Y ) se numeşte:

1. funcţie de regresie a variabilei aleatoare Y în raport cu (sau faţ¼a de)


variabila aleatoare X; dac¼a exist¼a, funcţia R : Dx ! R dat¼a de relaţia:

R(y x) = M (Y X = x); x 2 Dx R (1.9)

2. funcţie de regresie a variabilei aleatoare X în raport cu (sau faţ¼a de)


variabila aleatoare Y; dac¼a exist¼a, funcţia R : Dy ! R dat¼a de relaţia:

R(x y) = M (X Y = y); y 2 Dy R (1.10)

Observaţia 1.4.2 Gra…cul funcţiei de regresie se numeşte curb¼ a de regresie.


Dup¼a cum funcţia de regresie este liniar¼a sau neliniar¼a, se spune c¼a regresia este
liniar¼a sau neliniar¼a. Analog funcţiilor de regresie (1.9), (1.10) pot … de…nite
funcţii de regresie şi pentru mai mult de dou¼a variabile aleatoare.

14
Teoria probabilit¼
aţilor şi statistic¼
a matematic¼
a

Pentru exempli…care, s¼
a presupunem c¼
a (X; Y; Z) este un vector aleator tridimensional
discret pentru care putem de…ni probabilit¼
aţi condiţionate de forma:

p (xi ; yj ; zk )
p (zk (xi ; yj )) = ; p (xi ; yj ) 6= 0; i 2 I; j 2 J; k 2 K
p (xi ; yj )

precum şi valori medii condiţionate de forma:


X
M (Z (X = xi ; Y = yj )) = zk p (zk (xi ; yj )) ; i 2 I; j 2 J; k 2 K (1.11)
k

În acest context se poate introduce funcţia de regresie a variabilei aleatoare


Z în raport cu (sau faţ¼
a de) vectorul (X; Y ) prin relaţia:

R(Z (x; y)) = M (Z (x; y)); (x; y) 2 Dx Dy (1.12)

ceea ce ilustreaz¼a a…rmaţia de mai sus.


Revenind la vectorul aleator bidimensional Z = (X; Y ) ; s¼ a presupunem c¼
a
regresiile lui Y în raport cu X şi lui X în raport cu Y sunt liniare, adic¼
a:

R(y x) = Ax + B şi R(x y) = Cy + D; x 2 Dx ; y 2 Dy (1.13)

Acest lucru înseamn¼ a c¼


a între variabilele aleatoare M (Y X) şi X precum şi
între variabilele aleatoare M (X Y ) şi Y au loc relaţiile:

M (Y X) = Ax + B şi M (X Y ) = Cy + D (1.14)

Propoziţia 1.4.3 În condiţiile relaţiilor (1.14) rezult¼a c¼a:

D (Y ) cov (X; Y )
A = (X; Y ) =
D (X) D2 (X)
cov (X; Y )
B = M (Y ) A M (X) = M (Y ) M (X)
D2 (X)
D (X) cov (X; Y ) (1.15)
C = (X; Y ) =
D (Y ) D2 (Y )
cov (X; Y )
D = M (X) C M (Y ) = M (X) M (Y )
D2 (Y )

15
Cursul 10

Demonstraţie: Calculând valoarea medie în (1.14) avem:

M [M (Y X)] = M (Y ) = A M (X) + B şi


M [M (X Y )] = M (X) = C M (Y ) + D

Înmulţind prima relaţie cu X şi pe a doua cu Y şi aplicând din nou valoarea
medie deducem c¼a:

M [X M (Y X)] = M (XY ) = A M X 2 + B M (X)


M [Y M (X Y )] = M (XY ) = C M Y 2 + D M (Y )

astfel c¼
a putem scrie acum sistemele liniare:
( (
A M (X) + B = M (Y ) C M (Y ) + D = M (X)
2
şi
A M X + B M (X) = M (XY ) C M Y 2 + D M (Y ) = M (XY )

a c¼
aror soluţionare conduce la relaţiile (1.15).

Observaţia 1.4.4 Ca urmare a propoziţiei anterioare, în cazul regresiei liniare


putem scrie ecuaţiile celor dou¼a drepte de regresie ca …ind:
( D(Y )
y = A X + B adic¼a y M (Y ) = (X; Y ) D(X) (x M (X))
D(X) (1.16)
x = C y + D adic¼a x M (X) = (X; Y ) D(Y ) (y M (Y ))

sau punând chiar variabilele aleatoare X şi Y;


( D(Y )
Y M (Y ) = (X; Y ) D(X) (X M (X))
D(X) (1.17)
X M (X) = (X; Y ) D(Y ) (Y M (Y ))

constatând c¼a aceste drepte se intersecteaz¼a în punctul (M (X) ; M (Y )) denumit


centru de greutate al repartiţiei vectorului aleator Z = (X; Y ) :

Observaţia 1.4.5 La aceleaşi expresii ale coe…cienţilor dreptelor de regresie se


ajunge şi aplicând metoda celor mai mici p¼atrate pentru minimizarea expresiilor
h i
E1 (A; B) = M (Y AX B)2 (1.18)
h i
E2 (C; D) = M (X CY D)2

16
Teoria probabilit¼
aţilor şi statistic¼
a matematic¼
a

care în cazul continuu are forma:


Z Z
E1 (A; B) = (y AX B)2 f (x; y) dxdy (1.19)
R2
Z Z
E2 (C; D) = (x CY D)2 f (x; y) dxdy
R2

Observaţia 1.4.6 Analog se poate proceda dac¼a presupunem funcţii de regresie


parabolice de forma:
R(y x) = A0 x2 + A1 x + A2
(1.20)
R(x y) = B0 y 2 + B1 y + B2
sau alte expresii neliniare, calculele …ind mai greoaie şi neconducând la formule
simple şi elegante ca în cazul liniar.

Exemplul 1.4.7 Pentru vectorul aleator discret Z = (X; Y ) a c¼arui repartiţie


este dat¼a de tabelul de mai jos:

X Y -1 0 1 pi
-1 1/3 1/6 1/12 7/12
1 1/12 1/6 1/6 5/12
qj 5/12 1/3 1/4 1

deducem imediat urm¼atoarele:


1 35
M (X) = ; M (X 2 ) = 1; D2 (X) = ;
6 36
1 2 23
M (Y ) = ; M (Y 2 ) = ; D2 (Y ) = ;
6 3 36
1 1 11
M (XY ) = ; M (X)M (Y ) = ; cov(X; Y ) = ;
3 36 36
11 11
(X; Y ) = p =p ;
23 35 805

şi ca urmare vom putea scrie dreptele de regresie:


1 11 1 1 11 1
Y + = X+ şi X + = Y +
6 35 6 6 23 6

17
Cursul 10

Observaţia 1.4.8 Presupunerea sau alegerea formri curbei de regresie nu este


întâmpl¼atoare. O reprezentere gra…c¼a a valorilor variabilelor aleatoare M (Y =X)
şi respectiv M (X=Y ) poate sugera forma curbei. Pentru ca o astfel de informaţie
s¼a …e cât mai bun¼a şi deci util¼a este necesar ca num¼arul de valori al variabilelor
aleatoare discrete M (Y =X) şi M (X=Y ) s¼a …e su…cient de mare.

18
Teoria probabilit¼
aţilor şi statistic¼
a matematic¼
a

19
Index

Coe…cient
de corelatie, 7
Corelate
negativ, 7
pozitiv, 7
Corelatie sau covariantã, 6
Corelatie sau covarianta, 5
Curbã
de regresie, 14

Functie
de regresie, 14

Matrice
de corelatie, 7
Moment
centrat, 5
initial, 5

Raport de corelatie, 12

Variabile
aleatoare, 5
Variabile aleatoare
negativ perfect corelate, 10
pozitiv perfect corelate, 10
puternic negativ corelate, 10
puternic pozitiv corelate, 10
slab negativ corelate, 11
Variabile aleatoare
slab pozitiv corelate , 11

20

S-ar putea să vă placă și