Sunteți pe pagina 1din 21

Teoria probabilităților

Teoria probabilităților reprezintă studiul matematic al probabilităților, cu alte cuvinte, al


fenomenelor caracterizate de incertitudine și de întâmplare.

1. Scurt istoric

Începuturile teoriei probabilităților sunt legate de numele matematicienilor Blaise Pascal și


Pierre Fermat în secolul al XVII-lea, ajungând la probleme legate de probabilitate datorită
jocurilor de noroc. Dezvoltarea teoriei probabilităților și cercetarea unor probleme nelegate
de jocurile de noroc sunt legate de matematicienii: Abraham Moivre, Pierre Simone de
Laplace, Carl Friedrich Gauss, Simon-Denis Poisson, Pafnuti Lvovici Cebîșev, Andrei
Andreevici Markov în secolul XIX, iar în secolul al XX-lea Andrei Nikolaevici Kolmogorov
și al lui Alexandr Iakovlevici Hincin.

Probabilitatea evenimentelor aleatoare


Clasificarea evenimentelor:

a) sigur - evenimentul apariției una din fețele 1,2,3,4,5,6 la un zar;


b) imposibil- evenimentul apariției feței 7 la un zar;
c) aleator - evenimentul apariției feței 3 la un zar.

Frecvența unui eveniment

= , unde m reprezintă numărul de apariții E în cazul a n încercări

Probabilitatea unor evenimente aleatoare

În cazul unui număr n suficient de mare de experimente în care evenimentul E apare de m ori,
frecvența relativă m/n poate fi socotită ca valoarea probabilităților. Această valoare se

numește probabilitatea (statistică a) evenimentului E și se notează P(E); .

3
Evenimente incompatibile, contrare

• Evenimente incompatibile - evenimentele nu se produc simultan.


• Evenimente contrare - producerea unuia înseamnă nerealizarea celorlalte.

Regula de adunare și cea de înmulțire

• Regula de adunare

Probabilitatea reuniunii unui număr de evenimente incompatibile este egală cu suma


probabilităților acestor evenimente:
P(E E E E ... EK)=P(E1)+P(E2)+P(E3)+ P(E4)+...+P(EK).

• Regula de înmulțire

• pentru evenimente independente: P(E F)=P(E) P(F)


• pentru evenimente condiționate: P(E F)=P(F) P(E/F)

Câmp de evenimente. Câmp Borel de evenimente

1. Mulțimea S e un element a lui B.


2. Dacă două mulțimi E1 și E2 sunt elemente ale lui B atunci E E2, E E2 sunt elemente ale lui B.

3. Dacă mulțimile E1, E2, ..., En, ... sunt elemente ale lui B, atunci E E ...E ... și E E ...E

sunt de asemenea elemente ale lui B.

• Câmp de evenimente - condițiile 1 și 2


• Câmp Borel de evenimente - condițiile 1, 2, 3.

Sistemul de axiome Kolmogorov

Axioma 1. Fiecărui eveniment aleator E din câmpul de evenimente îi este atașat un număr
real nenegativ P(E) numit probabilitatea lui E. Axioma 2. Probabilitatea evenimentului sigur
S P(S)=1.
Axioma 3. Dacă evenimentele E1, En sunt incompatibile două câte două, atunci P(E E ...
En)=P(E1)+P(E2)+...+P(En)
Axioma de adunare extinsă. Dacă apariția unui eveniment E echivalentă cu apariția unui
oarecare eveniment E1,..., En, ... incompatibile două câte două, atunci P(E)=P(E1)+P(E2)+...
+P(En)+...

4
2. VARIABILE ALEATOARE

2.1 Definitia variabilei aleatoare

Majoritatea experimentelor de interes practic au ca rezultate valori numerice. Aceasta inseamna ca


rezultatul unei probe al unui experiment, poate fi caracterizat de un numar sau de un cuplu de numere.
Se poate, astfel considera ca fiecarei probe al unui experiment i se poate asocia un numar sau de un
cuplu de numere. Se poate atunci introduce notiunea de variabila aleatoare (intamplatoare) ca o
functie reala definita pe multimea evenimentelor elementare asociate experimentului considerat.
Cuvantul aleator, subliniaza faptul ca se lucreaza cu elemente generate de fenomene intamplatoare,
care nu sunt guvernate de legi strict deterministe. Elementul dificil in analiza acestor fenomene consta
in faptul ca desi acestea au o anumita regularitate, este imposibil de precizat cu certitudine rezultatul
unei probe intamplatoare.
Fie Ω multimea evenimentelor elementare asociata unui anumit experiment, rezultatele posibile
fiind notate cu ω . Este posibil ca acesta sa nu fie un rezultat numeric in sine, dar i se poate atribui o
anumita valoare numerica. De exemplu, la distribuirea unor carti de joc, se poate atribui o anumita
valoare numerica fiecarei carti samd.

DEFINITIE Orice functie f definita pe Ω si care ia valori in multimea numerelor reale R, se numeste
variabila aleatoare.
Prin urmare, fiecarui rezultat ωi , 1 ≤ i ≤ n , ii corespunde numarul real xi = f (ω i ) , 1 ≤ i ≤ n .

OBSERVATIE Numarul rezultatelor xi , 1 ≤ i ≤ n , distincte este mai mic cel mult egal cu n.

EXEMPLU Se considera experimentul aruncarii unui zar. Fie ωi , 1 ≤ i ≤ 6 , evenimentele care


constau in aparitia fetei cu un numar i de puncte. Se poate defini o variabila aleatoare, ca fiind data de

f (ωi ) = i .

Se considera acum ca variabila aleatoare f inregistreaza s valori distincte x1 , x2 ,..., xs , in

conditiile in care sunt inregistrate n evenimente elementare ωi , 1 ≤ i ≤ n . Fie ωi1 ,ωi2 ,...,ωik ,

( ) ( )
evenimentele elementare pentru care f ω ih = xi , 1 ≤ h ≤ k . Notand pih = p ω ih , atunci:

qi = p( f = xi ) = pi1 + pi2 + ...pik .

5
EXEMPLU Se considera o variabila aleatoare g, data de recolta de grau pe un hectar. In aceasta situatie
variabila aleatoare poate avea orice valoare dintr-un interval (a,b) si prin urmare apare urmatoarea
clasificare, generata de natura valorilor inregistrate.

DEFINITIE O variabila aleatoare se numeste discreta (discontinua) daca poate lua numai valori
izolate. Numarul valorilor posibile ale unei variabile aleatoare discrete poate fi finit sau infinit.
O variabila aleatoare se numeste continua daca poate lua valori care umplu un interval finit sau
infinit. Evident, numarul valorilor posibile ale unei variabile aleatoare continue este intotdeauna
infinit.

2.2 Repartitia unei variabilei aleatoare discrete

Pentru a defini o variabila aleatoare discreta este suficient sa se enumere toate valorile posibile pe
care aceasta le poate lua. Insa, pentru a o cunoaste complet trebuie enumerate si probabilitatile
corespunzatoare fiecarei valori inregistrate.
Se numeste repartitie a unei variabile aleatoare discrete enumerarea valorilor posibile ale variabilei
aleatoare si a probabilitatilor corespunzatoare acestora. De obicei repartitia unei variabile aleatoare
discrete se scrie sub forma unui tablou in care prima linie contine toate valorile posibile, iar a doua
linie, probabilitatile corespunzatoare :

x x2 ... xn  x 
f :  1  , sau f :  i  , 1 ≤ i ≤ n .
 p1 p2 ... pn   pi 

Tinand seama ca intr-un experiment variabila aleatoare ia una si numai una din valorile sale

posibile, rezulta ca evenimentele care constau in aceea ca variabila f ia valorile x1 sau x2 ,…,

sau xn formeaza - dupa cum se stie – un sistem complet de evenimente. Prin urmare, suma
probabilitatilor acestor evenimente este egala cu unitatea :

p1 + p2 + ...+ pn = 1.

2.3 Operatii cu variabile aleatoare discrete

DEFINITIE Puterea de ordinul k a variabilei aleatoare f este variabila aleatoare f k cu repartitia :

6
 xk xk2 ... xkn 
f k :  1 .
 p1 p2 ... pn 

DEFINITIE Daca a este un numar real, produsul dintre a si f este variabila aleatoare af , cu
repartitia :

 ax ax2 ... axn 


af :  1 .
 p1 p2 ... pn 

Fie f si g doua variabile aleatoare, avand respectiv repartitiile:

x x2 ... xn  y y2 ... ym 
f :  1  si g :  1 .
 p1 p2 ... pn   q1 q2 ... qm 

Se considera evenimentul care consta in aceea ca f ia valoarea xi , 1 ≤ i ≤ n si g ia valoarea


y j , 1 ≤ j ≤ m. Acest eveniment notat (f = xi , g = yj ) si care este intersectia evenimentelor

( f = xi ) si ( g = yj ) , constand in aceea ca f ia valoarea xi , respectiv g ia valoarea yj , are o


probabilitate bine determinata:

P ( f = xi , g = yj ) = pij .

Cum evenimentele (f = xi , g = yj ) , 1 ≤ i ≤ n , 1 ≤ j ≤ m, in numar de nm, formeaza un


sistem complet de evenimente, atunci :

n m
∑ ∑ pij = 1.
i =1 j =1

DEFINITIE Variabila aleatoare f + g are repartitia:

 xi + yj 
 
 pij  , 1 ≤ i ≤ n ,
1 ≤ j ≤ m.
 

DEFINITIE Variabila aleatoare fg are repartitia:

 xi yj 
 
 pij  , 1 ≤ i ≤ n ,
1 ≤ j ≤ m.
 

7
Exista vreo legatura intre probabilitatile p1 , p2 ,..., pn si q1 , q2 ,..., qn ? Raspunsul la aceasta
intrebare este afirmativ, insa legatura dintre aceste probabilitati nu este intotdeauna simpla. Un caz in
care aceasta legatura este foarte simpla este acela in care f si g sunt independente.

DEFINITIE Variabilele f si g se numesc independente probabilistic daca pentru orice i si j ,

1 ≤ i ≤ n , 1 ≤ j ≤ m, evenimentele ( f = xi ) si ( g = yj ) sunt independente. Prin urmare:

P ( f = xi , g = yj ) = P ( f = xi ) P ( g = yj ) ,

adica

pij = pi q j .

In mod analog se pot defini sumele si produsele a mai mult de doua variabile aleatoare, ca si
notiunea de independenta a unui numar oarecare de variabile aleatoare.

2.4 Momentele unei variabile aleatoare discrete

Se considera doua variabile aleatoare f si g si se presupune ca f poate lua valorile

x1 ,..., xs , iar g poate lua valorile y1 ,..., yt . Pentru fiecare pereche ( xi , yk ) , fie pjk

probabilitatea ca f sa ia valoarea xj si g sa ia valoarea yk , adica:

pjk = p( f = xj ,g = yk ) , 1 ≤ j ≤ s , 1 ≤ k ≤ t .

DEFINITIE Probabilitatile pjk , 1 ≤ j ≤ s , 1 ≤ k ≤ t constituie repartitia comuna a variabilelor


aleatoare f , g .

DEFINITIE Variabilele aleatoare f si g sunt independente, daca pentru orice j , 1 ≤ j ≤ s si


orice k , 1 ≤ k ≤ t are loc:

p( f = xj ,g = yk ) = p( f = xj ) p( g = yk ) .

Se considera acum mai mult de doua variabile aleatoare. Fie f1 ,..., fn , n variabile aleatoare,
unde variabila aleatoare f j ia valorile x1, j ,..., xsj , j , 1≤ j ≤ n .

DEFINITIE Probabilitatile :

8
(
pj1 j2 ...jn = p f1 = xj1,1 , f2 = xj2 ,2 ,...,fn = xjn ,n )
constituie repartitia comuna a variabilelor aleatoare f1 ,..., fn .

DEFINITIE Variabilele aleatoare f1 ,..., fn sunt independente, daca pentru orice 1 ≤ jl ≤ sl ,


1≤ l ≤ n:

( )
p f1 = xj1 ,1 , f2 = xj2 ,2 ,...,fn = xjn ,n =

= p( f 1 ) ( ) (
= xj1,1 p f2 = xj2 ,2 ...p fn = xjn ,n .)
DEFINITIE Variabilele aleatoare f1 , f2 ,..., fn ,... 1 sunt independente, daca orice numar finit de
variabile aleatoare din acest sir sunt independente.

Introducem acum o caracteristica numerica foarte importanta, asociata unei variabile aleatoare.

DEFINITIE Numarul

s
M ( f ) = ∑ xk pk
k=1

se numeste valoarea medie a variabilei aleatoare f .

EXEMPLU In experimentul cu zarul :

1 1 1 1 1 1 1
M ( f ) = 1⋅ + 2⋅ + 3⋅ + 4⋅ + 5⋅ + 6 ⋅ = 3 .
6 6 6 6 6 6 2

DEFINITIE Fie r un numar intreg, r ≥ 1. Numarul

s
M r ( f ) = ∑ xkr pk
k=1

se numeste moment de ordinul r al variabilei aleatoare f .

OBSERVATIE Momentul de ordinul 1 este valoarea medie.

DEFINITIE Numarul

1
Vom nota un sir si sub forma ( fn )
9
s
D 2 ( f ) = M 2 ( f − M ( f ) ) = ∑ ( xk − M ( f ) ) pk
2

k=1

se numeste dispersia variabilei aleatoare f .

Cu ajutorul acestor notiuni introduse, se pot demonstra o serie de proprietati.

PROPRIETATEA 1 Fie f o variabila aleatoare si r un numar intreg, r ≥ 1. Atunci

Mr ( f ) = M f r ( )
Demonstratie. Fie variabila aleatoare f cu repartitia

x  xs 
f :  1 .
 p1  ps 

Atunci variabila aleatoare h = f r va avea evident repartitia :

 xr  xsr 
h :  1 ;
 p1  ps 

r
cu alte cuvinte, valorile xj si xj au aceeasi probabilitate pj ,
1 ≤ j ≤ s si deci

s
M ( h) = ∑ xrj pj = M r ( f ) . ( ∗ )
j =1

Din proprietatea anterioara se deduce imediat:

PROPRIETATEA 2 Fie f o variabila aleatoare care poate lua o singura valoare a cu probabilitatea
1 (adica f = a = constant ). Atunci:

M r ( f ) = ar .

PROPRIETATEA 3 Fie f o variabila aleatoare si a un numar real. Atunci:

M r ( af ) = ar M r ( f ) .

10
Demonstratie. Fie variabila aleatoare f cu valorile x1 ,..., xs , avand probabilitatile p1 ,..., ps

si fie h = af . Aceasta noua variabila aleatoare ia valorile ax1 ,..., axs cu aceleasi probabilitati

p1 ,..., ps si deci:

s s
M ( h) = ∑ ar xrj pj = ar ∑ xrj pj = ar M r ( f ) . ( ∗ )
j =1 j =1

PROPRIETATEA 4 Fie n variabile aleatoare f1 ,..., fn . Atunci valoarea medie a sumei acestor
variabile aleatoare este egala cu suma valorilor medii, adica:

M ( f1 + ...+ fn ) = M ( f1 ) + ...+ M ( fn ) .

Demonstratie. Fie mai intai numai doua variabile aleatoare f si g . Se presupune ca variabila

aleatoare f ia valorile x1 ,..., xs cu probabilitatile p1 ,..., ps , iar variabila aleatoare g ia

valorile y1 ,..., yt cu probabilitatile q1 ,..., qt . De asemenea fie :

pjk = p( f = xj ,g = yk ) , 1 ≤ j ≤ s , 1 ≤ k ≤ t .

Fie h = f + g ; aceasta noua variabila aleatoare ia valoarea xi + yk cu probabilitatea pjk ,


1≤ j ≤ s , 1 ≤ k ≤ t . Prin urmare :

M ( h) = ∑ ∑ ( xj + yk ) pjk = ∑ xj  ∑ pjk  + ∑ yk  ∑ pjk  . (1)


s t s t t  s 
j =1k=1 j =1  k=1  k=1  j =1 

t
Suma ∑ pjk , este suma probabilitatilor tuturor evenimentelor de forma ( f = xj ,g = yk ) , unde
k=1

indicele j este acelasi pentru toti termenii sumei, iar indicele k variaza de la un termen la altul,

parcurgand toate valorile de la 1 la t . Deoarece evenimentele ( g = yk ) pentru indici k diferiti

t
sunt incompatibile doua cate doua, suma ∑ pjk este probabilitatea producerii unui eveniment
k=1

oarecare din cele t evenimente ( f = x ,g = y ) ,


j k 1 ≤ k ≤ t . Dar, a spune ca s-a produs un

eveniment oarecare din evenimentele ( f = xj ,g = yk ) , 1 ≤ k ≤ t , este echivalent cu a spune ca s-a

produs evenimentul ( f = xj ) . Intr-adevar, daca s-a produs unul din evenimentele ( f = xj ,g = yk ) ,

11
1 ≤ k ≤ t , este evident ca s-a produs si evenimentul ( f = xj ) ; reciproc, daca s-a produs evenimentul

( f = x ) , atunci intrucat variabila aleatoare


j
g ia neaparat una din valorile sale posibile y1 ,..., yt

, trebuie sa se produca si un eveniment oarecare din evenimentele ( f = x ,g = y ) ,


j k 1≤ k ≤ t .

t
Asadar, ∑ pjk fiind probabilitatea producerii unui eveniment oarecare din evenimentele
k=1

( f = x ,g = y ) , 1≤ k ≤ t , este egala cu probabilitatea evenimentului ( f = x ) , adica


j k j

t
∑ pjk = pj , 1≤ j ≤ s .
k=1

In mod analog se deduce:

s
∑ pjk = qk , 1 ≤ k ≤ t .
j =1

Tinand seama de aceste expresii in relatia (1) , se obtine :

s t
M ( h) = ∑ xj pj + ∑ yk qk = M ( f ) + M ( g) .
j =1 k=1

Pentru mai mult de doua variabile aleatoare, se procedeaza prin inductie. Fie

h = f1 + ...+ fn

si se presupune teorema adevarata pentru n−1 . Atunci :

M ( f1 + ...+ fn−1 ) = M ( f1 ) + ...+ M ( fn−1 ) .

Aplicand proprietatea pentru doua variabile aleatoare, se obtine :

M ( h) = M ( ( f1 + ...+ fn−1 ) + fn ) = M ( f1 + ...+ fn−1 ) + M ( fn ) =


= M ( f1 ) + ...+ M ( fn ) . ( ∗ )

PROPRIETATEA 5 Dispersia unei variabile aleatoare f este data de relatia :

D2 ( f ) = M 2 ( f ) − ( M ( f ) ) .
2

12
(
Demonstratie. D 2 ( f ) = M 2 ( f − M ( f ) ) = M ( f − M ( f ) ) 2 = )
(
= M f 2 − 2M ( f ) f + ( M ( f ) )
2
) = M ( f ) − M ( 2M ( f ) f ) + M (( M ( f ) ) ) ,
2 2

daca se tine seama de proprietatea precedenta. Mai departe, aplicand de doua ori proprietatea 1., se
obtine :

( )
D 2 ( f ) = M f 2 − 2M ( f ) M ( f ) + ( M ( f ) ) = M 2 ( f ) − ( M ( f ) ) . (∗)
2 2

PROPRIETATEA 6 Fie f si g doua variabile aleatoare independente. Atunci valoarea medie a


produsului acestor variabile aleatoare este egala cu produsul valorilor medii, adica :

M ( fg) = M ( f ) M ( g) .

Demonstratie. Se presupune ca variabila aleatoare f ia valorile x1 ,..., xs cu probabilitatile

p1 ,..., ps , iar variabila aleatoare g ia valorile y1 ,..., yt cu probabilitatile q1 ,..., qt . De


asemenea :

pjk = p( f = xj ,g = yk ) , 1 ≤ j ≤ s , 1 ≤ k ≤ t

si cum f si g sunt variabile independente:

pjk = pj qk , 1 ≤ j ≤ s , 1 ≤ k ≤ t .

Fie h = fg ; aceasta noua variabila aleatoare ia valoarea xj yk cu probabilitatea pjk , 1 ≤ j ≤ s ,


1 ≤ k ≤ t . Prin urmare:

s t s t
M ( h) = ∑ ∑ xj yk pjk = ∑ ∑ xj yk pj qk =
j =1k=1 j =1k=1

 s  t 
=  ∑ xj pj  ∑ yk qk  = M ( f ) M ( g) .
 j =1  k=1 

PROPRIETATEA 7 Fie n variabile aleatoare f1 ,..., fn independente doua cate cate doua. Atunci
dispersia sumei acestor variabile aleatoare este egala cu suma dispersiilor, adica:

D 2 ( f1 + ...+ fn ) = D 2 ( f1 ) + ...+ D 2 ( fn ) .

13
Demonstratie. Din proprietatea 6 se deduce

D 2 ( f1 + ...+ fn ) = M 2 ( f1 + ...+ fn ) − ( M ( f1 + ...+ fn ) ) =


2

( )
= M ( f1 + ...+ fn ) − ( M ( f1 ) + ...+ M ( fn ) ) =
2 2

n n  n n
  2
= M ∑ f j2 + ∑ f j fk  − ∑ ( M( f j ) − ∑ M( f j ) M ( fk ) =
 j= 1 jj,≠kk= 1  j= 1 jj,≠kk= 1
 

j= 1
()
= ∑ M f j2 + ∑ M ( f j fk ) − ∑ ( M ( f j ) − ∑ M( f j ) M ( fk ) .
n

j ,k= 1
n

j= 1
2
n

j ,k= 1
j≠ k j≠ k

Daca se tine seama de faptul ca variabilele aleatoare f1 ,..., fn sunt independente, atunci din
proprietatea 6 rezulta ca cele doua sume duble de mai sus se reduc si deci :

D ( f1 + ...+ fn ) = ∑ M ( f j ) − ( M ( f j ) ) =
2 2 2
n

j =1
( )

j =1
(
= ∑ M 2 ( f j ) − ( M ( f j ))
n
2
) = ∑D ( f ) .
n

j =1
2
j

PROPRIETATEA 8 (Inegalitatea lui Cebisev) Fie f o variabila aleatoare si ε un numar pozitiv


oarecare. Atunci

D2 ( f )
p( f − M ( f ) ≥ ε ) < ,
ε2

sau

D2( f )
p( f − M ( f ) < ε ) ≥ 1 −
ε2

Demonstratie. Fie f o variabila aleatoare care ia valorile x1 ,..., xs cu probabilitatile p1 ,..., ps .


Dispersia variabilei aleatoare f este :

s
D 2 ( f ) = ∑ ( x1 − M ( f ) ) pi .
2

i =1

14
Fie ε > 0 este un numar oarecare; daca din suma de mai sus se elimina toti termenii pentru care
xi − M ( f ) <ε si raman numai termenii pentru care xi − M ( f ) ≥ε , suma poate numai sa se

micsoreze, adica

D2 ( f ) ≥ ∑ ( x1 − M ( f ) ) pi .
2

xi − M ( f ) ≥ε

Aceasta suma se va micsora si mai mult daca in fiecare termen al ei vom inlocui factorul

( xi − M ( f ) ) 2 prin valoarea inferioara ε 2 :

D2 ( f ) ≥ ε 2 ∑ pi .
xi −M ( f ) ≥ε

Suma din partea dreapta reprezinta suma probabilitatilor tuturor acelor valori xi ale variabilei

aleatoare f care se abat de la valoarea medie M ( f ) de o parte si de alta cu mai mult de ε;


conform proprietatii de aditivitate a doua evenimente incompatibile, aceasta este probabilitatea ca
variabila aleatoare f sa ia una din aceste valori. Cu alte cuvinte, aceasta suma este
p( f − M ( f ) ≥ε) . Adica :

D2( f )
p( f − M ( f ) ≥ ε ) < ,
ε2

ceea ce permite aprecierea probabilitatii abaterilor mai mari decat un numar ε dat dinainte, cu

conditia numai sa fie cunoscuta dispersia D 2 ( f ) .

Cu ajutorul proprietatilor 7 si 8 se poate demonstra urmatorul rezultat foarte important, cunoscut


sub numele de legea numerelor mari.

PROPRIETATEA 9 Fie f1 , f2 ,..., fn ,... un sir de variabile aleatoare independente care au aceeasi

repartitie si deci, aceeasi valoare medie m si aceeasi dispersie σ 2 . Atunci, pentru orice ε si δ

arbitrari, ε > 0 , δ > 0 , exista un numar natural n0 ( ε ,δ ) astfel incat indata ce n > n0 ( ε ,δ ) , are
loc :

1 n 
p ∑ f j − m ≥ ε  < δ .
 n j =1 

15
Demonstratie. Din proprietatile 1 si 4, se deduce:

1 n  1 n
M  ∑ f j  = ∑ M ( f j ) = ∑ m= m
1 n
 n j =1  n j =1 n j =1

si deci, aplicand proprietatea 8, se obtine:

1 n 
D 2  ∑ f j 
 1 n   n j =1  .
p ∑ f j − m ≥ ε  <
 n j =1  ε2

Dar:

1 n  1 n σ 2⋅n σ 2
D 2  ∑ f j  = 2 ∑ D 2 ( f j ) = 2 ∑ σ 2 = 2 =
1 n
,
 n j = 1  n j =1 n j =1 n n

de unde rezulta:

1 n  σ2
p ∑ f j − m ≥ ε  < 2 .
 n j =1  ε n

Fiind dati ε > 0 , δ > 0 , se poate determina un numar natural n0 ( ε ,δ ) , care depinde de ε si

δ , astfel incat indata ce n > n0 ( ε ,δ ) , sa rezulte :

σ2
< δ ;2
ε n
2

Prin urmare :

1 n 
p ∑ f j − m ≥ ε  < δ .
 n j =1 

σ2
2
Drept n0 ( ε ,δ ) putem lua primul numar natural n pentru care n> .
ε 2δ

16
Cu alte cuvinte, proprietatea 9 arata ca daca variabilele aleatoare f1 , f2 ,..., fn ,... sunt

independente si daca au aceeasi medie m si aceeasi dispersie σ 2 , atunci pentru un n suficient de

1 n
mare, expresia ∑ f j va diferi oricat de putin de m cu o probabilitate oricat de apropiata de 1.
n j =1

Studiul independentei a doua variabile aleatoare se poate realiza si prin intermediul coeficientului
de corelatie.

DEFINITIE Se numeste corelatie a doua variabile aleatoare, media produsului abaterilor acestora:

cov( X ,Y ) = M [ ( X − M ( X ) ) (Y − M (Y ) ) ] .

PROPRIETATE cov( X ,Y ) = M ( XY ) − M ( X ) M (Y ) .

Demonstratie M [ ( X − M ( X ) ) (Y − M (Y ) ) ] = M [ XY − XM (Y ) −YM ( X ) − M ( X ) M (Y )] =
M ( XY ) − M ( XM (Y ) ) − M (YM ( X ) ) + M ( M ( X ) M (Y ) ) = M ( XY ) − M ( X ) M (Y )

DEFINITIE Se numeste coeficient de corelatie:

cov( X ,Y )
ρ( X ,Y ) = .
D( X ) D(Y )

TEOREMA Corelatia a doua variabile aleatoare independente este nula.

Demonstratie Daca variabilele X, Y sunt independente, atunci si X − M ( X ) , respectiv Y − M ( Y ) sunt


independente.

PROPRIETATI

1) ρ( X ,Y ) ≤1 ;

2) ρ( X ,Y ) =1 daca si numai daca intre variabilele X si Y exista o relatie de legatura liniara.

2
 X − m1 Y − m2 
Demonstratie 1) Fie U = t + , t ∈ R . M (U ) ≥ 0 , (∀) t ∈ R . Calculand
 σ1 σ 2 
media variabilei aleatoare U, se obtine :

17
 2 ( X − m1 ) 2 X − m1 Y − m2 ( Y − m2 ) 
[ ]+
2
t2
M (U ) = M  t =σ M ( X − m1 )
2
+ 2t + 
 σ1
2
σ1 σ2 2
σ 2  1
2

2t
σ1σ 2
M [( X − m1 )(Y − m2 )] +
1
σ2
2
[
M (Y − m2 ) .
2
]
Calculand discriminantul si impunand conditia ca acesta sa fie pozitiv, rezulta proprietatea data.
2) Fie Y = aX + b, a,b∈R , a ≠ 0 .

cov( X ,aX + b) = aD 2 ( X )

aD 2 ( X ) 1,dac[ a > 0
⇒ ρ( X ,Y ) =
a D2 ( X )
= −1,dac[ a < 0

2.5 Repartitii discrete clasice

Repartitia binomiala

 0 1  k  n 
B( n,k) :  0 n 
n n.
 Cn q Cn1qn−1 k n−k
 Cn q  Cn p 

Parametrii acesteia sunt : M [ B( n,k)] = np, D 2 [ B( n,k)] = npq .

Repartitia Poisson

 0 1 2  k 
P ( n,k) :  −λ λ2 −λ λk − λ .
e λe−λ e  e 
 2! k! 

Parametrii acesteia sunt : M [ P ( n,k) ] = λ , D 2 [ P ( n,k)] = λ .


Repartitia Poisson poate fi scrisa si in forma:

P ( n,k) ≈
( np) k e−np , ( λ ≈ np) .
k!

Distributia hipergeometrica

18
 0 1  k 
 0 n 
H ( n,k) :  Ca C b C a1C bn−1 CakC bn−k
 
.
 Cn 
 a+ b C an+ b C an+ b 

N −n
Parametrii acesteia sunt : M [ H ( n,k)] = np, D 2 [ H ( n,k)] = npq ,
N −1

 a 
a+ b = N, p = , q = 1− p
 N 

Revenind la calculul parametrilor repartitiilor, se obtine :

Repartitia binomiala
n
M [ B( n, k) ] = ∑ k ⋅ C nk ⋅ pk ⋅ qn−k .
k=0
Fie binomul :

( q + x) n = C n0qn + Cn1qn−1x + C n2qn−2x2 + ...+ Cnk qn−k xk + ...+ C nnxn (1) .


Derivand dupa x, rezulta:

n( q + x) n−1 = 1⋅ C n
1 n−1
q + 2xCn2qn−2 + ... + kxk−1C nk qn−k + ...+ nxn−1C nn .
Inmultind cu x, rezulta:

nx( q + x) n−1 = 1⋅ C nq x + 2C n2qn−2 x2 + ...+ kCnk qn−k xk + ...+ nCnnxn ( 2)


1 n−1

n
k ⋅ C nk ⋅ qn− k ⋅ pk = np( p + q) n−1
x = p ⇒ k∑
= np
Pentru  .
=0   =1
= M [ B( n,k) ]

Daca derivam inca o data ( 2) dupa x, rezulta:


1 n−1 2 n−2
12C nq + 22 xCn q + ... + k 2 xk−1C n
k n−k
q + ... + n2 xn−1C n
n
=

[
= n ( q + x) n−1 + x( n − 1)( q + x) n−2 ]
si inmultind cu x
n
[
⇒ ∑ k 2 ⋅ C nk ⋅ pk ⋅ qn−k = nx( q + x) n−1 + x( n − 1)( q + x) n−2
k=0
] .

n
x = p ⇒ ∑k 2 ⋅ C nk ⋅ pk ⋅ qn−k = np[1+ 1) p] =
( n − n2 p2 + np(1−p)
Pentru  , de unde rezulta ca:
k=0 np− p+1 =q

D 2[ x] = n2 p2 + np(1− p) − n2 p2 = npq .

Repartitia Poisson

Considerand dezvoltarea in serie Taylor a functiei f ( λ) = eλ in jurul originii rezulta:

λ! 2 n λk ,
f ( λ) = f (0) + f /
(0) + λ f //
(0) + ...+ λ f ( n) (0) + ... ⇒ e =
λ
∑ k!
1! 2! n! k≥0

19
[ f ( ) (0) = 1] .
n

Atunci

λk λk λk λk−1
M [ P ( n,k)] = ∑k ⋅ e−λ = ∑k ⋅ e−λ = ∑( k −1)! e−λ = λ∑ e−λ =
k≥0 k! k≥1 k! k≥1 k≥1( k − 1)!

λk
λ∑ e−λ = e−λ ⋅ λ ⋅ eλ , adica M [ P ( n,k)] = λ .
k≥0 k!

Pentru determinarea dispersiei este necesar sa se calculeze:

[
M P 2 ( n,k) = ] ∑k 2 ⋅ k! e−λ
λk
= ∑k 2 ⋅
λk
k!
e−λ =
λk
∑k ⋅ ( k − 1)! e−λ =
k≥0 k≥1 k≥1

 
 
λk+1 λk λk λk
= λe−λ ∑( k + 1)
−λ
λe−λ ∑k ⋅ = λe  ∑ k⋅ +∑ 
k≥1 k −1 ! (k≥0 )k! k≥0

k!
 k 0k
≥ 
! 

 =λe λ
=eλ

[
⇒ M P 2 ( n,k) = λ2 + λ ⇒ ] D 2[ P ( n,k)] = λ2 + λ − λ2 = λ .

Prin urmare, repartitia Poisson are M P n,k [ ( )] = D 2[ P ( n,k)] = λ .

Repartitia hipergeometrica

n C akC bn−k 1 n 1 n
M [ H ( n,k) ] = ∑k ⋅ = ∑k ⋅ C akC bn−k = ∑k ⋅ C akC bn−k =
k=0 C an+b C an+b k=0 C an+b k=1
n−1
C at −1C b( n−1) −t
a
1 n a! a n
∑ =
∑k ⋅ k! ( a − k)! C bn−k = n ∑ k ⋅ C ak−−11C bn−k = n
C a+b 
t=0  
C an+b k=1 C a+b k=1 k−1=t
=Can+−b1−1

a n! ( a + b − n)! an
⋅ ⋅ ( a + b − 1)! = .
( a + b)! ( n − 1)! ( a + b − n)! a+ b

[
M H 2 ( n,k) = ] n
∑k 2 ⋅
C akC bn−k
C an+b
=
1
C an+b k=1
n
∑k 2 ⋅
a!
k! ( a − k)!
C bn−k =
a
C an+b k=1
n
∑k ⋅ C ak−−11C bn−k
k=0

n−1
∑C at −1C b( n−1) −t ⋅ ( t + 1) =
a
=
k−1=t C n
a+b t=0

a n−1 t ( n−1) −t + n−1t ⋅ C t C ( n−1) −t 


 ∑C a−1C b ∑ a−1 b .
C an+b t=0 t=0 

n−1 n−1 n−1 ( a − 1)!


∑t ⋅ C at −1C b( n−1) −t = ∑t ⋅ C at −1C b( n−1) −t = ∑t ⋅ t! ( a − 1− t)! C b( n−1)−t =
t=0 t=1 t=1

n−1 n−2
( a − 1) ∑C at−−12C b( n−1)−t = ( a − 1) ∑C as−2C b( n−2)−s = (a −1)C an+−b2−2 ⇒
t=1 t−1=s s=0

20
[
M H 2 ( n,k) =] a
C an+b
[C n−1
a+b−1 + ( a − 1)C an+
−2
]
b−2 =
an! ( a + b − n)!
( a + b)!

( a + b − 1)! +
( n − 1)! ( a + b − n)!

an! ( a + b − n)! ( a − 1)( a + b − 2)! an a( a − 1) n( n − 1)


⋅ = + ⇒
( a + b)! ( a + b − n)! ( n − 2)! a + b ( a + b)( a + b − 1)
an a( a − 1)( n − 1) n a2n2 abn( a + b − n)
D 2[ H ( n,k) ] = + − = .
a + b ( a + b)( a + b − 1) ( a + b) 2
( a + b) 2( a + b − 1)
ab( a + b − n)
⇒ D [ H ( n,k) ] = = npq a + b − n , unde p = a , q = b .
2
( a + b) ( a + b − 1)
2 a + b −1 a+ b a+ b

BIBLIOGRAFIE
1. Ciuci G. - Elemente de teoria probabilităţilor şi statistică matematică, Editura Didactică şi
Pedagogică, Bucureşti, 1963
2. Ciucu, G.,Craiu, V.- Introducere în teoria probabilităţilor şi statistică matematică, Editura
Didactică şi Pedagogică, Bucureşti, 1971
3. Ciucu, G., Craiu, V., Săcuiu, I.- Probleme de teoria probabilităţilor, Editura Tehnică, 1974
4. Ciucu, G., Craiu, V., Săcuiu, I.- Probleme de statistică matematică, Editura Tehnică, 1974

21
5. Ciucu, G., Craiu, V., Ştefănescu, A.- Statistică matematică şi cercetări operaţionale,
Editura Didactică şi Pedagogică, Bucureşti, 1974
6. Ciucu, G., Tudor, C. - Probabilităţi şi procese stochastice, vol. I, Editura Academiei
R.S.R., Bucureşti, 1978
7. Craiu, V. - Verificarea ipotezelor statistice, Editura Didactică şi Pedagogică, Bucureşti,
1972
8. Cuculescu, I. - Curs de calculul probabilităţilor, Topografia Universităţii, Bucureşti, 1976
9. Feller, W. - An introduction to probability theory and its applications, vol. I (1957), vol. II
(1966), John Wiley
10. Gnedenko, B. V. - The Theory of probability, Mir Publishees Moscow, 1969
11. Guiaşu, S., Theodorescu, R.- Matematica şi informaţia, Editura Didactică şi Pedagogică,
Bucureşti, 1965
12. Iaglom, A. M., Iaglom, I. M. - Probabilitate şi informaţie, Editura Didactică şi
Pedagogică, Bucureşti, 1963
13. Iosifescu, M., Mihoc Gh., Theodorescu, R. - Teoria probabilităţilor şi statistică
matematică, Editura Tehnică, Bucureşti, 1966
14. Iosifescu, M. - Lanţuri Markov finite şi aplicaţii, Editura Tehnică, Bucureşti, 1977
15. Iosifescu, M., Tăutu, P. - Stochastic processe and applications in biology and medicine,
Bucureşti, Berlin, Editura Academiei & Springer, 1973
16. Kendall, M. G., Stuart, A. - The advanced theory of Statistics, vol. I, II, Charles Griffin &
Company Limited, London, 1961
17. Kai Lai Chung - Elementary Probability Theory with Stochastic Processes, Springer –
Verlag, New York – Heidelberg – Berlin, 1974
18. Kalbleisch, J. G. - Probability and Statistical Inference, I, II, Springer – Verlag, New
York, Heidelberg, Berlin, 1979
19. Mc Phersson, G. - Statistics in Scientific Investigation (Its Basis, Application and
Interpretation), Springer – Verlag, 1990
20. Mihoc, Gh., Ciucu, G., Craiu, V. - Teoria probabilităţilor şi Statistică matematică,
Editura Didactică şi Pedagogică, Bucureşti, 1970
21. Neveu, I. - Cours de Probabilités, Ecole Polytechnique, Paris, 1970
22. Onicescu, O. - Probabilităţi şi procese aleatoare, Editura Ştiinţifică şi
Enciclopedică, Bucureşti, 1977
23. Onicescu, O., Mihoc, Gh., Ionescu Tulcea, C. - Calculul probabilităţilor şi aplicaţii,
Editura Academiei R.P.R., Bucureşti, 1956

22
24. Reischer, C., Sâmboan, G., Theodorescu, R. - Teoria probabilităţilor, Editura Didactică şi
Pedagogică, Bucureşti, 1967
25. Renyi, A. - Calcul de probabilités, Dunod, Paris, 1966
26. Schimetterer, L. - Einfuhrung in die matematische Statistik, Springer Verlag, Wien, New
York, 1966
27. Trandafir, R. - Introducere în teoria probabilităţilor, Editura Albatros, Bucureşti, 1979
28. Uilks, S. - Matematicescaia Statistica, Izdatelstvo “Nauka”, Moscova, 1967
29. Venzel, H. - Theorie de probabilités, Editura de Moscou, 1973
30. Ya-lun Chou - Statistical Analysis for Business and Economics, Elsevier, New York,
Amsterdam, London, 1989

23

S-ar putea să vă placă și