Sunteți pe pagina 1din 17

sau

F(x) = F(x-0).
Reciproca acestei teoreme este următoarea:
Teorema 14. Orice funcţie F : ℜ → [0,1], monotonă, nedescrescătoare, continuă la
stânga şi cu F(- ∞ ) = 0, F(+ ∞ ) = 1 este funcţia de repartiţie a unei variabile aleatoare
definită pe un câmp de probabilitate convenabil ales.
Observaţii. (i). Dacă ξ este o variabilă aleatoare discretă cu pi = P(ξ = xi), i∈I,
atunci rezultă:
F ( x) = ∑ pi ,
xi < x

caz în care funcţia de repartiţie se numeşte discretă.


(ii). Funcţia de repartiţie a unei variabile aleatoare discrete este o funcţie în scară,
adică ia valori constante pe intervalele determinate de punctele xi (i∈ I).
Observaţie. Dacă valorile posibile ale unei variabile aleatoare ξ aparţin
intervalului (a, b), atunci:
F(x) = 0, pentru x ≤ a,
F(x) = 1, pentru x ≥ b.
Demonstraţie. Fie x1 ≤ a; atunci
{ω ξ (ω ) < x1} = Φ , deci F(x1) = P({ω ξ (ω ) < x1}) = 0.
Dacă x2 ≥ b , atunci {ω ξ (ω ) < x2}= Ω , deci F(x2) = P({ω ξ (ω ) < x2}) = 1.
Teorema 15. Dacă F este funcţia de repartiţie a unei variabile aleatoare ξ , iar a <
b (a, b∈ℜ), atunci au loc egalităţile:
10. P(a ≤ ξ < b) = F(b)-F(a);
2 0. P(a < ξ < b) = F(b)-F(a)-P(ξ =a);
3 0. P(a < ξ ≤ b) = F(b)-F(a)-P(ξ =a)+P(ξ =b);
4 0. P(a ≤ ξ ≤ b) = F(b)-F(a)+P(ξ =b).
Demonstraţie. Fie evenimentele A = {ω ξ (ω ) < a}, B = {ω ξ (ω ) < b},
C = {ω ξ (ω ) = a}, D = {ω ξ (ω ) = b}.
Deoarece A⊂ B, A∪ C⊂ B, A⊂ B∪ D rezultă:
10.P( B \ A) = P ( B ) − P ( A) , adică:
P(a ≤ ξ < b) = F(b) - F(a);
2 .P ( B \ ( A ∪ C )) = P ( B) − P( A) − P(C ) , adică:
0

P(a < ξ < b) = F(b) - F(a) - P(ξ = a);


3 .P( B ∪ D \ ( A ∪ C )) = P ( B ) − P( A) − P (C ) + P ( D) , adică
0

P(a < ξ ≤ b) = F(b) - F(a) - P(ξ = a) + P(ξ = b);


4 .P ( B ∪ D \ A) = P ( B ) − P ( A) + P ( D) , adică
0

P(a ≤ ξ ≤ b) = F(b) - F(a) + P(ξ = b) .


Observaţie. Deoarece P (ξ = x) = F ( x + 0) − F ( x) rezultă că egalităţile 2 0 − 4 0 de
mai sus pot fi scrise astfel :
2’. P ( a < ξ < b) = F (b) − F (a + 0) ;

25
3’. P(a < ξ ≤ b) = F (b + 0) − F (a + 0) ;
4’. P(a ≤ ξ ≤ b) = F (b + 0) − F (a + 0) .
Definiţia 18. Se numeşte salt în punctul x0∈ℜ al funcţiei de repartiţie
F : ℜ→[0, 1], expresia S ( x 0 ) = F ( x 0 + 0) − F ( x 0 − 0) .
Teorema 16. O funcţie de repartiţie F are o mulţime cel mult numărabilă de
puncte de discontinuitate de prima speţă .
Demonstraţie. Deoarece 0 ≤ F ( x) ≤ 1 , funcţia F nu poate avea decât cel mult un
1 1 1
salt mai mare ca , cel mult trei salturi pentru care < S ( x0 ) ≤ , cel mult 2 n −1 salturi
2 4 2
1 1
pentru care n < S ( x0 ) ≤ n −1 .
2 2
Renumerotând salturile rezultă că mulţimea salturilor nenule este o mulţime cel
mult numărabilă .
Noţiunea de funcţie de repartiţie se poate extinde în mod natural la variabilele
aleatoare n-dimensionale astfel :
Definiţia 19. Fie (ξ , η ) : Ω→ℜ 2 o variabilă aleatoare 2-dimensională. Funcţia
F : ℜ2→ [0, 1] definită astfel :
F ( x, y ) = P ({ω / ξ (ω ) < x,η ( x) < y})
se numeşte funcţia de repartiţie a vectorului aleator bidimensional (ξ ,η ) .
Teorema 17. Funcţia de repartiţie F (⋅,⋅) satisface următoarele proprietăţi :
(i). 0 ≤ F ( x, y ) ≤ 1 , ∀(x. y)∈ℜ2;
(ii). F (⋅,⋅) este nedescrescătoare în raport cu fiecare variabilă, adică
F ( x1 , y ) ≤ F ( x 2 , y ) , dacă x1 < x2 ; (∀)y∈ℜ;
F ( x, y1 ) ≤ F ( x, y 2 ) , dacă y1 < y2 ; (∀)x∈ℜ.
lim F ( x, y ) = 0, lim F ( x, y ) = 0, lim F ( x, y ) = 0, lim F ( x, y ) = 1.
(iii). x →−∞ y → −∞ x → −∞ x →∞
y → −∞ y →∞

(iv). F1 ( x) = lim F ( x, y ); F2 ( y ) = lim F ( x, y ) , unde F1 şi F2 sunt funcţiile de

ξη
x →∞ x →∞

repartiţie ale variabilelor ξ şi . η


(v). P ( x1 ≤ ξ < x 2 ,η < y ) = F ( x 2 , y ) − F ( x1 , y ) ;
P( < x, y1 ≤ < y2 ) = F ( x, y 2 ) −F ( x, y1 ) ;
P ( x1 ≤ ξ < x 2 , y1 ≤ η < y 2 ) = [ F ( x 2 , y 2 ) − F ( x1 , y 2 )] − [ F ( x 2 , y1 ) − F ( x1 , y1 )] .

5.3. Exemple reprezentative de funcţii de repartiţie

Distingem două tipuri de repartiţii şi anume:


- repartiţii discrete
- repartiţii continue,
după cum variabilelor aleatoare căreia le corespund repartiţiile respective sunt discrete sau
continue.
Din categoria repartiţiilor discrete menţionăm:

26
- repartiţia Ha;
- repartiţia binomială;
- repartiţia Poisson.

(i). Repartiţia Ha
Dacă ξ este o variabilă aleatoare care este, aproape sigur, egală cu a, adică
P({ω ξ (ω ) = a}) =1, funcţia ei de repartiţie este:
0, adică x ≤ a
Fa ( x ) = 
1, adică x > a,
a
iar repartiţia ei definită de ξ :   ; această repartiţie se numeşte Ha.
1 
Observaţie. Funcţia de repartiţie a oricărei variabile aleatoare discrete ξ poate fi
scrisă sub forma:

F ( x) = ∑ pi Fai ( x ),
i =1

unde pi = P({ω ξ (ω ) = ai).


În particular, pentru variabila aleatoare discretă ξ cu repartiţia:
1 0 
ξ :   , q = 1-p,
 p q
funcţia de repartiţie este:
F(x) = pF1(x)+qF0(x).
(ii). Repartiţia binomială este repartiţia discretă următoare:
 0 1 ... k 
 
P
 n ( 0 ) Pn (1 ) ... Pn ( k ) 
k k n−k
unde Pn (k ) = C n p q , k = 0,1,..., n, 0 < p < 1, q = 1 − p.
Este evident faptul că repartiţia binomială depinde de parametrii p şi n. Vom nota cu
B(p,n) mulţimea variabilelor aleatoare care au repartiţia binomială cu parametrii p şi n.
Considerăm un câmp de probabilitate finit {Ω , K, P} care constă din evenimentele
K={A, CA, ∅, Ω }. Fie p probabilitatea evenimentului A şi q =1-p probabilitatea
evenimentului CA (non A).
Presupunem că se fac n experienţe independente în urma cărora se realizează unul
din cele două evenimente A şi CA, cu probabilităţile constante p şi q.
Teorema 18. Probabilitatea ca evenimentul A să se producă de k ori în n experienţe
independente (deci evenimentul CA să se producă de n-k ori) este egală cu Pn(k).
Demonstraţie. Probabilitatea ca în k experienţe să se producă evenimentul A şi în
n-k să se producă evenimentul CA este p k q n −k . Deoarece numărul tuturor combinaţiilor
k
posibile de k experienţe din totalul de n este C n , rezultă că probabilitatea căutată este
C nk p k q n − k = Pn (k ).
Observaţie. Variabila aleatoare

27
ξ (n) = ξ 1 + ξ 2 +…+ ξ n
unde, pentru fiecare j, 1 ≤ j ≤ n , variabila aleatoare ξ j ia valoarea 1 sau 0 după cum la
experienţa de rang j s-a realizat evenimentul A sau evenimentul CA, ia valoarea k dacă
evenimentul k s-a produs de k ori; variabilele aleatoare ξ j, 1 ≤ j ≤ n sunt independente;
1 0 
fiecare variabilă ξ j(j = 1,…,n) are repartiţia ξ j :   ; evident ξ (n)∈B(n, p).
 p q
Observaţie. Repartiţia binomială a fost studiată J. Bernoulli (1654-1705). Schema
bilei reîntoarse, imaginată de Bernoulli, a jucat un rol important în dezvoltarea statisticii
matematice. Schema este realizată de o succesiune de extrageri independente dintr-o urnă
care conţine a bile albe şi b bile negre, a şi b fiind constante în decursul extragerilor
succesive. Probabilitatea de a extrage o bilă albă sau neagră este aceeaşi la fiecare extragere
şi anume:
a b
p= , q= .
a+b a+b
Funcţia de repartiţie a repartiţiei binomiale este funcţia de repartiţie a variabilei
aleatoare ξ (n).
0 , dacă x ≤ 0
 0 n
C n q , dacă 0 < x ≤ 1
 1
∑ C n p q , dacă 1 < x ≤ 2
k k n−k
[ x ]−1
 k =0
F(x) = P({ω ξ (n)(ω ) < x}) = ∑ C n p q = 
k k n−k

k =0 .....................................................
 n −1 k k n − k
∑ C n p q , dacă n − 1 < x ≤ n
 k =0
1 , dacă x > n

Graficul funcţiei de repartiţie a repartiţiei binomiale are n trepte corespunzătoare
celor n+1 puncte de discontinuitate.

Figura 1.

(iii). Repartiţia Poisson (Legea evenimentelor rare)


28
Repartiţia Poisson este o repartiţie discretă care atribuie valorilor 0,1,…, k,…
probabilităţile:
λk −λ
P(k ; λ ) = e , k = 0,1,...
k!
unde λ > 0 este un număr dat, deci o repartiţie de forma:
 k 
  .
 P (k ; λ )  k∈N
Observaţie. P(k; λ ) se obţine din Pn(k), de la repartiţia binomială, dacă np = λ
(constant) şi n∈ N.
Într-adevăr,
n−k
n(n − 1)...(n − k + 1) k n − k n(n − 1)...(n − k + 1) λk  λ 
Pn(k)= p q = 1 −  .
k! k! nk  n 
Deoarece
n−k
n(n − 1)...(n − k + 1)  λ −λ
lim k
= 1, lim  1 −  =e ,
n →∞ n n → ∞
 n
rezultă:
λk −λ
lim Pn (k ) = ⋅ e = P( k ; λ ).
n →∞ k!
În cazul repartiţiei Poisson funcţia de repartiţie este:
[ x ]−1
F(x)= ∑ P (k ; λ ).
k =0

5.4. Densitatea de repartiţie (probabilitate) a unei variabile aleatoare

Definiţia 20. Fie ξ o variabilă aleatoare a cărei funcţie de repartiţie este F. Dacă
există o funcţie de repartiţie f : ℜ→ℜ, integrabilă pe ℜ, astfel încât:
x
F ( x) = ∫ f (u )du,
−∞

atunci F se numeşte funcţie de repartiţie continuă, ξ se numeşte variabilă aleatoare


continuă, iar funcţia f se numeşte densitate de probabilitate (repartiţie).
Observaţie. Dacă funcţia de repartiţie F are o densitate de probabilitate f, atunci
f(x) = F’(x).
Teorema 19. Densitatea de probabilitate are următoarele proprietăţi:

29
10 . f ( x ) ≥
0, pentru orice x ∈
ℜ;
+

2 0. ∫
f (u )du =


1;

3 0. Pentru orice a, b ∈
ℜ,a<
b are loc relaţia :
b
ξ
P( a ≤ ∫
; b) =f ( x)dx.
a

Definiţia 21. Dacă există o funcţie f : ℜn→ℜ, integrabilă pe ℜn , astfel încât


funcţia de repartiţie n-dimensională F (a variabilei aleatoare ξ : Ω→ℜ n) să se exprime
sub forma:
x1 x1

F ( x1 ,..., x n ) = ∫ ... ∫ f (u ,..., u


−∞ −∞
1 n )du1 ...du n ,

atunci această funcţie se numeşte densitatea de probabilitate a variabilei aleatoare n-


dimensionale ξ = (ξ 1 ,..., ξ n ) .
Analog ca şi în cazul unidimensional, densitatea de probabilitate multidimensională
are proprietăţile:
10. f ( x1 , x 2 ,..., x n ) ≥ 0 pentru orice (x1, x2, …, xn)∈ℜn;
∞ ∞
2 . ∫ ... ∫ f (u1 , u 2 ,..., u n )du1 du 2 ...du n = 1
0

−∞ −∞

∂ n F ( x1 , x 2 ,..., x n )
3 0. f ( x1 , x 2 ,..., x n ) = .
∂x1∂x 2 ...∂x n
Pentru cazul bidimensional (n = 2) rezultă:
Definiţia 22. Se numeşte densitate de probabilitate bidimensională a doua
derivată parţială mixtă (dacă există) a funcţiei de repartiţie F( ⋅,⋅ ):
∂ 2 F ( x, y )
f ( x, y ) = .
∂y∂x
Teorema 20. Densitatea de probabilitate bidimensională f( ⋅,⋅ ) are proprietăţile
următoare:
(i ). f ( x, y ) ≥ 0, (∀ )( x, y ) ∈ ℜ
2
;

(ii). ∫∫
f ( x, y )dxdy =
1;

∞−

x y


(iii ). F ( x, y) =∫f ( x, y )dydx
−∞
∞−

(iv). P({ω
| (ξ

),η

)) ∈ ∫f ( x, y)dxdy,
D}) =
D

D fiind un domeniu (mulţime deschisă şi conexă), D ⊂ ℜ2.

30
∞ ∞


(v). f1 ( x) =



f ( x, y )dy; f 2 ( y ) =
f ( x, y )dx.

5.5. Exemple reprezentative de densităţi de repartiţie

Prezentăm, în continuare câteva densităţi de repartiţie (probabilitate) reprezentative.


(i). Repartiţia normală este definită prin densitatea de probabilitate:

π σ
m) 2
( x−

f ( x) = e 2σ
1 −

σ , > 0, x ∈
2
ℜ .
2 n
Observaţie. Funcţia f este o densitate de probabilitate deoarece este continuă,
nenegativă şi

∫ f ( x)dx = 1.
−∞
x−m
Ultima afirmaţie rezultă făcând substituţia y = .
σ

σ
Într-adevăr obţinem:

σ
π πππ
∞ y2
∞ y2
∞ y2

1 −1 −2 − 1 1

f (
∞ 2

x ) dx = ∫
e
∞2

2
dy ∫
=


e 2
dy = ∫
2 0
e 2
dy = Γ
( )=
2
1.

Vom nota cu N(m, σ ) mulţimea variabilelor aleatoare a căror densitate de


probabilitate este normală.
Funcţia de repartiţie a repartiţiei normale N(m, σ ) este:
x (t −m )2
1 −
F ( x) =
σ 2π −∞
∫e
⋅ dt. 2σ 2

Graficul funcţiei f are următoarea formă (figura 2) şi se numeşte curba normală


(curba lui Gauss).

x
0 m-σ m m+σ

Figura 2.

31
Remarcăm faptul că punctul x = m este punct de maxim, valoarea maximului fiind
1
f ( m) = , iar punctele de abscisă m± σ sunt puncte de inflexiune.
σ 2π
(ii). Repartiţia Cauchy este definită prin densitatea de probabilitate:
1 1
f ( x) = ⋅ , x∈ℜ.
π 1+ x2
Funcţia de repartiţie este:
x
1 dy 1 1
F ( x) = ∫ = ⋅ arctg ( x) + .
π −∞1 + y 2
π 2
(iii). Repartiţia Gama este definită prin densitatea de probabilitate:
x p −1e − x
f ( x) = , 0 ≤ x < ∞, p > 0.
Γ( p )
Vom nota prin γ (p) mulţimea variabilelor aleatoare cu densitatea de probabilitate
dată mai sus.
(iv). Repartiţia Beta este definită prin densitatea de probabilitate:
1
f ( x) = x p −1 (1 − x ) q −1 , 0 < x < 1, p > 0, q > 0.
B ( p, q )
Vom nota prin β (q, p) mulţimea variabilelor aleatoare a căror densitate de
probabilitate este dată de funcţia de mai sus.
(v). Repartiţia χ 2 (Helmert-Pearson) este definită prin densitatea de
probabilitate.
s x
1 −1 − 2
f ( x) = s x e2 2σ
, 0 ≤ x < ∞,
 s 
2 2 σ Γ 
s

2
unde s este un număr natural dat numit numărul gradelor de libertate, iar σ > 0 un număr
dat.
Vom nota prin H(s, σ ) mulţimea variabilelor aleatoare a căror densitate de
probabilitate este dată de funcţia de mai sus.
(vi). Repartiţia Weibull este definită prin densitatea de probabilitate:
( x −γ ) k
k −
f ( x) = ( x − γ ) e θ , θ , k > 0, γ ≥ 0,
k −1

θ
pentru x ≥ γ .
În marea majoritate a cazurilor avem γ = 0 , situaţie în care densitatea devine:
xk
k −
f ( x) = x k −1e θ , x ≥ 0, k ,θ > 0.
θ
Funcţia de repartiţie este:
x tk xk
x −
F ( x) = ∫ f (t )dt = −e −θ
|
0
= 1− e θ
, x ≥ 0; θ , k > 0.
0

32
Repartiţia Weibull include drept cazuri particulare repartiţia exponenţială (pentru
k=1) şi repartiţia Rayleigh (pentru k=2). Prezintă o mare elasticitate în adecvarea acestui
model la un eşantion de date de observaţie, datorită existenţei celor doi parametri,
eliminând astfel rigiditatea existentă la modelul existenţial care furnizează bune rezultate în
cazul comportării “normale” a caracteristicii studiate.

5.6. Variabile aleatoare independente

Definiţia 23. Familia de variabile aleatoare F = (ξ α )α∈ I se numeşte familie de


variabile de aleatoare independente, dacă pentru orice parte finită J⊂ I şi orice părţi
boreliene (Bα )α∈ J, avem:
P ( ∩ ξ α ( Bα )) = Π P (ξ α ( Bα )).
−1 −1
α ∈J α ∈J

Definiţia 24. Familia de variabile aleatoare F = (ξ α )α∈ I se numeşte familie de


variabile aleatoare independente k câte k dacă orice subfamilie Fk formată din k variabile
aleatoare arbitrare din familia F este o familie de variabile independente.
Fie familia de variabile aleatoare simple (ξ i) 1≤i≤n şi x i (1 ≤ j ≤ ri ), 1 ≤ i ≤ n, valorile
j

pe care le poate lua ξ i, 1 ≤ i ≤ n . Considerăm de asemenea, familia de repartiţii (Di) 1≤i≤n ,


unde Di = ( Ai )1≤ j ≤ ri , 1 ≤ i ≤ n, iar Ai = {ω / ξ i (ω ) = xi }.
j j j

Teorema 21. Familia de variabile aleatoare simple (ξ i )1≤i ≤ n este o familie de


variabile aleatoare independente dacă şi numai dacă partiţiile (Di) 1≤i≤n sunt independente.
Demonstraţie. Fie
( q1≤ i≤ n ) , 1 ≤ qi ≤ ri , 1 ≤ i ≤ n; Bi = { xiq }, 1 ≤ i ≤ n. Evident ( Bi ) 1≤ i≤ n ⊂
i
B.

Presupunem că (ξ i) 1≤i≤n este o familie de variabile aleatoare independente, atunci


n
P (∩ ξ i−1 ( Bi )) qi = ∏ P (ξ i−1 ( Bi )).
i =1
i =1

Dar ξ ( Bi ) = A , 1 ≤ i ≤ n , şi această egalitate devine:


−1 qi
i i
n n
P (∩ Aiqi ) = ∏ P ( Aiqi ),
i =1
i =1

ceea ce exprimă faptul că partiţiile (Di) 1≤i≤n sunt independente.


j j
Reciproc, dacă ( Bi )1≤i ≤n ⊂ B şi ( xi ) j∈I i reprezintă acele valori xi care aparţin
mulţimii Bi, 1 ≤ i ≤ n , atunci:
ξ i−1 ( Bi ) = ∪ Ai j
j∈I i

prin urmare
n n n n
P (ξi−1 ( Bi )) =P (Ai j ) =P (
i=1 i=1 j∈Ii

jl ∈
Ai j ) = ∑P(Ai j ) =
Il i=1
i

jl ∈Il j=1
i

1≤l ≤n 1≤l ≤n

33
n n n n

∑(∏P( A
jl ∈I l i =1
i
ji
)) = ∏(∑ P ( Ai j )) = ∏ P (  Ai j ) = ∏ P (ξi−1 ( Bi ))
i =1 j∈I i i =1 j∈I i i =1
.
1≤l ≤n

Observaţie. Evenimentele (A i )1≤i ≤ n sunt independente dacă şi numai dacă familia


(χ ) este o familie de variabile aleatoare independente.
Ai 1≤i ≤ n

Observaţie. Variabilele aleatoare discrete ξ şi η definite prin:


ξ (ω ) = xn, pentru ω∈ An (n = 1, 2,…);
η (ω ) = ym, pentru ω∈ Bm (m =1, 2,…),
unde {An} şi {Bm} sunt două sisteme complete de evenimente, sunt independente, dacă
pentru orice m şi n avem:
P ( An ∩ Bm ) = P ( An ) ⋅ P ( Bm ).
Observaţie. Dacă ξ şi η sunt variabilele aleatoare discrete definite mai sus şi
f : ℜ →ℜ, atunci variabila ζ = f(ξ , η ) ia valorile ζ nm = f(xn, ym) şi este definită de
2

sistemul complet de evenimente:


Cnm ={ω ξ (ω ) = xn; η (ω ) = ym}.
Avem
P (ζ = z ) = ∑P (ξ = x n ;η = y m ) .
f ( x n , y m ) =z

Dacă ξ şi η sunt independente, avem:


P (ξ = x n , η = y m ) = P (ξ = x n ) ⋅ P (η = y m )
aşadar
P (ς = z ) = ∑ P(ξ = x
f ( xn , ym )
n ) ⋅ P (η = y m ).

Menţionăm, de asemenea, următorul rezultat deosebit de important:


Teorema 22. Condiţia necesară şi suficientă pentru ca F = (ξ α )α∈ I să fie o familie
de variabile aleatoare independente este ca:
Fα1 ...α n ( xα1 ,..., xα n ) = Fα1 ( xα1 )...Fα n ( xα1 )
pentru orice J = {α 1,…,α n}⊂ I, (xα )α∈ J⊂ ℜ, unde Fα i este o funcţie de repartiţie a
variabilei aleatoare ξ α i ,1 ≤ i ≤ n, iar Fα1 ...α n este funcţia de repartiţie a variabilei aleatoare
n-dimensionale ( ξ α1 ,..., ξ α n ).
Dacă variabilele aleatoare care constituie familia F admit densităţi de probabilitate,
condiţia de independenţă devine:
f α1 ...α n ( xα1 ,..., xα n ) = f α1 ( x ε1 )... f α n ( xα n )
pentru orice J = {α 1,…, α n}⊂ I, (xα )α∈ J⊂ ℜ, unde f α i este densitatea de probabilitate a
variabilei aleatoare ξ α i , 1 ≤ i ≤ n, iar f α1 ...α n densitatea de probabilitate a variabilei aleatoare
n-dimensionale (ξ α1 ,..., ξ α n ).
Demonstraţie. Ne rezumăm la a justifica afirmaţia făcută în cazul a două variabile
aleatoare ξ , η independente, utilizând drept condiţie de independenţă a variabilelor o
condiţie echivalentă cu cea menţionată şi anume: două variabile aleatoare ξ , η sunt
34
independente, dacă evenimentele {ω ξ (ω ) < x} şi {ω ξ (ω ) < y} sunt independente
pentru orice valori x, y∈ℜ, adică:
P(ξ < x, η < y) = P(ξ < x)⋅ P(η < y), (∀)x, y∈ℜ.
(am notat în loc de P({ω ξ (ω )< x}), mai scurt, P(ξ < x).
Necesitatea. Dacă variabilele aleatoare ξ şi η sunt independente, atunci
evenimentele (ξ < x) şi (η < y) sunt independente, deci are loc egalitatea de mai sus, prin
urmare
F(x, y) = F1(x)⋅ F2(y)
unde F(⋅ , ⋅ ) este funcţia de repartiţie a vectorului aleator bidimensional (ξ , η ) iar F1(⋅ )
şi F2(⋅ ) sunt funcţiile de repartiţie ale variabilelor ξ şi respectiv η .
Suficienţa. Din:
F(x, y) = F1(x)⋅ F2(y)
rezultă:
P(ξ < x, η < y) = P(ξ < x)⋅ P(η < y),
aşadar evenimentele (ξ < x) şi (η < y) sunt independente, deci variabilele aleatoare sunt
independente.
Condiţia:
F(x, y) = F1(x)⋅ F2(y)
implică, derivând în raport cu x şi apoi cu y:
∂ 2 F dF1 ( x) dF2 ( y )
= ⋅
∂y∂x dx dy
adică:
f(x, y) = f1(x)⋅ f2(y),
unde f(⋅ , ⋅ ) este densitatea de probabilitate bidimensională a vectorului aleator (ξ , η ), iar
f1(⋅ ), f2(⋅ ) sunt densităţile de probabilitate ale variabilelor ξ , respectiv η .
Reciproc, dacă:
f(x, y) = f1(x)⋅ f2(y),
atunci
x y x y

∫ ∫ f ( x, y)dxdy = ∫ f ( x)dx ∫ f
− ∞− ∞ −∞
1
−∞
2 ( y )dy

deci:
F(x, y) = F1(x)⋅ F2(y).

5.7. Operaţii cu variabile aleatoare

Teorema 23. Fie ξ o variabilă aleatoare şi c∈ℜ o constantă; atunci ξ + c, c⋅ ξ ,


1
ξ , ξ 2 , dacă ξ ≠ 0 sunt variabile aleatoare.
ξ
Demonstraţie.
{ω ξ (ω ) + c < x}= {ω ξ (ω ) < x-c}∈K;

35
 x
{ω / ξ (ω ) <
c
} ∈ K, dacă c > 0;
{ωcξ (ω ) < x}= 
x
{ω / ξ (ω ) > } ∈ K, dacă c < 0;
 c
{ω| ξ | (ω ) < x}= {ω ξ (ω ) < x}∩{ω ξ (ω ) > -x}∈K;
{ω ξ 2 (ω ) < x}= {ω| ξ (ω )| < x }∈K;

 {ω | ξ (ω ) < 0 ∈ K , d aăc x = 0
 1
{ω | ξ (ω ) < x} =  {ω | ξ (ω ) < 0} ∩ {ω | ξ (ω ) > } ∈ K , d aăc x < 0 Teorema 24. Dacă ξ şi
 x
 {ω | ξ (ω ) < 0} ∪ ( {ω | ξ (ω ) > 0} ∩ {ω | ξ (ω ) > 1} ∈ K , d aăcx > 0
 x
η două variabile aleatoare, atunci:
{ω ξ (ω ) > η (ω )}∈K; {ω ξ (ω ) ≥ η (ω )∈K; {ω ξ (ω ) = η (ω )}∈K.
Teorema 25. Dacă ξ şi η sunt două variabile aleatoare atunci ξ -η , ξ + η ,
ξ
ξ η , , dacă η ≠ 0, sup(ξ , η ), inf(ξ , η ), ξ + , ξ − sunt de asemenea variabile
η
aleatoare.
Demonstraţie.
{ω ξ (ω )-η (ω ) < x}= {ω ξ (ω ) < η (ω ) + x}∈K;
ξ +η = ξ - (-η );
1
ξ η = (ξ + η ) − (ξ − η ) ;
4
2
[ 2
]
ξ 1
=ξ ⋅ ;
η η
sup( , ) = ξ
ηξ
1
2
η
ξη
( + + − );
1
inf(ξ ,η ) = (ξ + η − ξ − η );
2
ξ = sup(ξ ,0);
+

ξ − = inf(ξ ,0).
Observaţie. Dacă ξ şi η sunt variabile aleatoare simple
x x 2 ... x n   y y ... y m 
ξ :  1 ; η :  1 2  ,
 p1 p 2 ... p n   q1 q 2 ... q m 
atunci:
(i). variabila ξ + η este definită de repartiţia:
 x1 + y1 x1 + y 2 ... xi + y j ... x n + y m 
ξ + η :  
 p11 p12 ... pij ... p nm 

36
unde:
pij = P({ω ξ (ω } = xi}∩{ω η (ω ) = yj) = P(ξ +η = xi+yj)
n m

∑∑ p
i =1 j =1
ij =1 ;

(ii). variabila ξ η este definită de repartiţia:


 x1 y1 x1 y 2 ... xi y j ... x n y m 
ξ η :  

p
 11 p 12 ... p ij ... p nm 

cu
pij = P({ω ξ (ω ) = xi}∩{ω η (ω ) = yj}) = P(ξ η = xiyj);
(iii). variabila ξ k (k ∈ N * ) este definită de repartiţia:
 x1k x 2k ... x nk 
ξ : 
k


p
 1 p 2 ... p n 

deoarece P (ξ = xi ) = P (ξ = xi ) = pi ;
k k

1
(iv). variabila ξ , ξ ≠ 0 este definită de repartiţia:

1 1 1 
1  ... 
:  x1 x2 xn  ;
ξ 
 p1 p2 ... p n 
ξ
(v). variabila η = ξ η , η ≠ 0 este definită de repartiţia:
−1

 x1 xi xn 
ξy ... y ... y 
: n  .
η1 j

 p11 ... p ij ... p nm 
Observaţie. O constantă a∈ℜ poate fi interpretată ca o variabilă aleatoare definită
de repartiţia:
a
a :  .
1 

5.8. Valori tipice ale variabilelor aleatoare

Unei variabile aleatoare ξ ∈ Ε (Ω , K, P) i se asociază diverse valori numerice ce


caracterizează într-un anumit mod variabila respectivă. Din această perspectivă ne
propunem să introducem momentele unei variabile aleatoare .
Definiţia 25. Fie ξ ∈ Ε , cu funcţia de repartiţie F şi densitatea de repartiţie f. Se
numeşte moment de ordinul r, r∈ N * , al variabilei aleatoare ξ , expresia:
∞ ∞
M r (ξ ) = α r (ξ ) = ∫ x dF ( x) = ∫ x
r r
f ( x)dx.
−∞ −∞

Se numeşte moment absolut de ordinul r al variabilei ξ , expresia:


37
∞ ∞
M r ( ξ ) = β r (ξ ) = ∫ x r dF ( x ) = ∫x
r
f ( x)dx .
−∞ −∞

Momentul de ordinul întâi al variabilei aleatoare ξ se numeşte valoare medie, sau


pe scurt, medie, a variabilei aleatoare ξ şi se notează:
∞ ∞
M (ξ ) = α 1 (ξ ) =
−∞
∫ xdF ( x) = ∫ xf ( x)dx.
−∞

Se numeşte moment centrat de ordinul r al variabilei aleatoare ξ , momentul de


ordinul r al variabilei aleatoare η = ξ - M(ξ ) şi se notează:
µ r(ξ ) = Mr(ξ - M(ξ )).
Observaţie. Atunci când nu există pericol de confuzie în loc de α r(ξ ), β r(ξ ),
µ r(ξ ) vom nota, mai scurt, respectiv α r, β r, µ r.
Momentul centrat de ordinul 2, µ 2, se numeşte dispersia sau varianţa variabilei
aleatoare ξ şi se notează:
µ 2 = σ 2 = M2(ξ - M(ξ )) = D 2 (ξ );
mărimea σ = D(ξ ) se numeşte abatere medie pătratică.
Observaţie. Între momentele şi momentele centrate ale unei variabile aleatoare
există relaţiile:
r
µ r = ∑ (−1) i C riα r −iα 1i ,
i=0

, ( r ∈ N * ).
r
α r = ∑ C ri µ r −iα 1i
i =0
Observaţie. Un interes deosebit, pentru aplicaţii, îl reprezintă şi următoarele
caracteristici numerice:
µ (ξ )
γ1 = 3 ; (coeficient de simetrie)
u 23 (ξ )
şi
µ 4 (ξ )
γ2 = −3; (coeficient de exces de turtire),
µ 22 (ξ )
dacă momentele respective există.
Observaţii. (i). Dacă repartiţia lui ξ este simetrică atunci µ 3(ξ ) = 0, deci γ 1 = 0;
condiţia γ 1 = 0 este o condiţie necesară, însă nu suficientă de simetrie.
(ii). Dacă variabila ξ este repartizată normal, atunci γ 2 = 0; după cum γ 2 este
pozitiv sau negativ, graficul repartiţiei este mai puţin turtit sau mai mult turtit decât curba
normală.
Observaţie. În cazul funcţiilor de repartiţie discrete (deci al variabilelor aleatoare
discrete) integralele din cazul continuu se reduc la sume obişnuite; astfel dacă ξ este o
variabilă aleatoare discretă care ia valorile xi cu probabilităţile pi, i∈I ⊆ N atunci:

38
M r (ξ ) = α r (ξ ) = ∑ xir pi ,
i∈I

dacă seria respectivă este convergentă ; pentru r = 1 se obţine valoarea medie a variabilei
aleatoare ξ :
M(ξ ) = ∑ xi p i ,
i∈I

în cazul în care seria ∑x p


i∈I
i i este convergentă.
Teorema 26. Au loc următoarele proprietăţi:
10. Dacă ξ = a ( = constantă) atunci Mr(a) = ar, r∈N*;
n n
20. M (∑ ai ξ ) = ∑ a i M (ξ i ), ai ∈ R, i = 1, n, ξ i ∈ E , i = 1, n;
i =1 i =1

3 . M(ξ - M(ξ )) = 0, ξ ∈ Ε ;
0

0 2 2
4 . D (ξ ) = M2(ξ ) – (M(ξ )) , ξ ∈ Ε ;
50. D2(a) = 0, a∈ℜ ;
60. Dacă η = aξ + b, ξ ∈ Ε , a, b∈ℜ atunci D(η ) = a D(ξ );
70. D2(aξ ) = a2D2(ξ ), ξ ∈ Ε , a∈ℜ;
80. Dacă (ξ i)1≤ i≤ n sunt variabile aleatoare independente, ξ i∈Ε (i = 1, n ), atunci
n n
M (∏ξ i ) = ∏ M (ξ i ) ;
i =1 i =1
0
9 . Dacă (ξ i)1≤ i≤ n sunt variabile aleatoare independente, ξ i∈Ε (i = 1, n ), ai∈ℜ
n n
) atunci D (∑ aiξ i ) = ∑ ai D (ξ ) .
2 2 2
(i = 1, n
i =1 i =1
Demonstraţia poate fi găsită în [8], [18].

5.9. Corelaţie - Coeficient de corelaţie

Definiţia 27. Fie ξ , η∈ Ε ; se numeşte corelaţia variabilelor ξ şi η mărimea:


λ ξ ,η = M((ξ - M(ξ ))(η - M(η )));
se numeşte coeficient de corelaţie al variabilelor ξ şi η mărimea:
M ((ξ − M (ξ ))(η − M (η )))
ρ ξ ,η = .
D(ξ ) D(η )
Observaţie. Din definiţie rezultă că:
λ ξ ,η = M(ξ η ) - M(ξ )⋅ M(η ).
Definiţia 28. Variabilele aleatoare ξ , η∈ Ε se numesc necorelate dacă
M(ξ η ) = M(ξ )M(η ).
Observaţie. Două variabile aleatoare independente sunt necorelate; reciproca nu
este însă întotdeauna adevărată.
Teorema 27. Dacă ξ , η∈ Ε atunci au loc proprietăţile;
10. Dacă D(ξ )D(η ) ≠ 0, atunci ρ ξ ,η = 0 dacă şi numai dacă variabilele ξ şi η
sunt necorelate;
39
2 .ρ ξ ,ξ = 1;
0

3 0. ρ ξ ,η ≤ 1;

4 0. Dacă ρ ξ ,η = 1 atunci variabilele ξ şi η sunt dependente (mai exact, există o


dependenţă liniară între variabilele ξ şi η ).
Demonstraţie. 10. Rezultă din definiţia necorelării variabilelor;
M ((ξ − M (ξ )) 2 )
2 0. ρ ξ ,ξ = = 1;
D(ξ ) D(ξ )
3 0. Din inegalitatea lui Schwarz rezultă:
λξ ,η = M ((ξ − M (ξ ))(η − M (η ))) ≤ D(ξ ) D(η ),
deci ρ ξ ,η ≤ 1.
4 0. Rezultă ca o consecinţă a inegalităţii lui Schwarz.
Observaţie. Pentru două variabile aleatoare n-dimensionale ξ şi η se introduce
matricea de corelaţie:
λξ ,η = ( M (ξ iη j )), 1 ≤ i, j ≤ n.

6. Conceptul de proces aleator (semnal aleator)

Fie {Ω , K, P} un câmp borelian de probabilitate, Ε = Ε (Ω , K, P) mulţimea


variabilelor aleatoare definite pe acest câmp şi T ⊂ ℜ.
Definiţia 29. O aplicaţie ξ : T→Ε se numeşte proces aleator sau funcţie
aleatoare.
Observaţie. Un proces aleator este o funcţie ξ (ω , t), ω∈ Ω , t∈T, sau, altfel spus,
o familie de variabile aleatoare (ξ t)t∈T.
Dacă T = N, vom folosi termenul de lanţ în loc de proces; prin urmare un lanţ
aleator este un şir de variabile aleatoare.
Noţiunea de semnal este foarte generală, constituind obiect de consideraţii
multidisciplinare. Definim un semnal ca fiind aplicaţia x : T→M, care asociază fiecărui
moment t∈T (T este o mulţime de momente sau mulţime-timp) un element x(t)∈ M numit
eşantionul semnalului x la momentul t.
În natură nu există semnale care să nu fie supuse unor perturbaţii aleatoare;
ipotezele simplificatoare de eliminare a caracterului aleatoare sunt deseori nejustificate.
După modul de dependenţă de timp semnalele pot fi discrete (de exemplu T = Z, T
= N, T = {0, 1, 2,…, N}, sau continue dacă T este un interval al axei reale.
După criteriul dependenţei de alte evenimente semnalele sunt deterministe (dacă
valorile lor sunt bine determinate) sau aleatoare (dacă valorile lor pot fi determinate doar
cu o anumită probabilitate); semnalele deterministe sunt concepte matematice simplificate
(idealizate), însă deseori necesare pentru înţelegerea semnalului aleator.
Fie {Ω , K, P} un câmp borelian de probabilitate, T o mulţime timp,
Ε = Ε (Ω , K, P) mulţimea variabilelor aleatoare peste acest câmp.

40
Definiţia 30. Se numeşte semnal aleator orice funcţie ξ : T→Ε .
Pentru un semnal aleator fixat ξ : T→Ε , fiecărui moment t∈T i se asociază o
variabilă aleatoare ξ (numită eşantion la momentul t al semnalului), deci noţiunea de
semnal aleator coincide cu cea de proces aleator (stochastic), aşadar o familie ξ = (ξ t)t∈T
de variabile aleatoare.
Pentru orice semnal aleator ξ şi orice eveniment elementar ω∈ Ω se poate defini
un semnal determinist ξ ω : T→ℜ, t→ξ t(ω ), numit traiectorie (realizare sau selecţie) a
lui ξ . Orice traiectorie este un rezultat al unei observări a semnalului şi este funcţie
deterministă de timp; prin urmare semnalul ξ poate fi privit ca o familie (ξ ω )ω∈ Ω de
semnale deterministe, ceea ce evidenţiază faptul că semnalele aleatoare constituie o
extensie a semnalelor deterministe.

41

S-ar putea să vă placă și