Sunteți pe pagina 1din 49

2021 Curs MS seria A+C, ETTI Lect.dr.

Purnichescu-Purtan Raluca

CURS 1 - 2
1. EVENIMENTE, SPAȚIU DE SELECȚIE
▪ Experienţă aleatoare: o experienţă al cărei rezultat nu poate fi anticipat cu certitudine, el depinzând de
o serie de factori întâmplători (aleatori).
Exemple: aruncarea unui zar, tragerile la ţintă, durata de funcţionare a unei maşini, etc.

▪ Probă : rezultatul unei experienţe aleatoare.

▪ Eveniment aleator: orice rezultat potențial al unei experiențe aleatoare, a cărui realizare poate fi
confirmată sau infirmată de o probă. Legat de o anumită experiență, un eveniment poate fi precizat printr-
o propoziție logică: după ce avem proba, putem afirma că evenimentul a avut loc sau nu printr-o propoziție
adevărată sau falsă.

▪ Cazuri favorabile: mulţimea de cazuri (rezultate) care realizează un anumit eveniment.

▪ Eveniment sigur: evenimentul care se realizează la orice probă (toate cazurile posibile ale experienţei
sunt cazuri favorabile ale acestui eveniment).

▪ Eveniment imposibil: evenimentul care nu se poate realiza în nicio efectuare a experienţei


(evenimentul care nu are nici un caz favorabil). Se mai poate defini ca eveniment cu mulţimea cazurilor
favorabile vidă. Notație: 

▪ Evenimente elementare / compuse: evenimentele care se pot realiza la o probă și numai una se
numesc evenimente elementare. Evenimentul elementar are un singur caz favorabil. Evenimentele care nu
sunt elementare se numesc compuse.

▪ Spaţiu de selecţie: mulţimea tuturor rezultatelor (cazurilor) posibile ale unei experienţe aleatoare. Fie
 o mulțime nevidă oarecare. Dacă mulțimii  i se poate atașa o experiență aleatoare, convenabil aleasă,
astfel încât fiecărei submulțimi a lui  să îi corespundă o situație reală în experiența considerată, atunci
mulțimea  se numește spațiu de selecție (sau mulțime de stări).
▪ Submulțimile lui  se numesc evenimente;
▪ Elementele lui  se numesc evenimente elementare;
▪ Mulțimea  reprezintă evenimentul sigur;
▪ Mulțimea vidă reprezintă evenimentul imposibil.

Mulţimea tuturor evenimentelor legate de o experienţă cu un număr finit de cazuri posibile se identifică cu
familia (  ) a tuturor submulţimilor mulţimii  (mulţimea părţilor lui  ).

2. OPERAȚII CU EVENIMENTE
Operațiile cu evenimente se identifică cu operațiile cu mulțimi.
Considerăm două evenimente A şi B ale spaţiului de selecţie  .

▪ Eveniment implicat de un alt eveniment: Fie A şi B două evenimente ale spaţiului de selecţie  .
Spunem că evenimentul A implică evenimentul B și scriem A  B dacă orice caz care realizează A ,
realizează B (mulţimea cazurilor favorabile lui A este inclusă în mulţimea cazurilor favorabile lui B ).
Evenimentul imposibil implică orice eveniment (   A , pentru orice eveniment A ).

▪ Reuniunea A  B („ A sau B ”) este evenimentul a cărui realizare înseamnă realizarea a cel puţin
unuia dintre evenimentele considerate.
Definiţia se poate extinde şi la un număr mai mare de evenimente.
1
2021 Curs MS seria A+C, ETTI Lect.dr. Purnichescu-Purtan Raluca

▪ Intersecția A  B („ A şi B ”) este evenimentul a cărui realizare înseamnă realizarea ambelor


evenimente considerate.
Definiţia se poate extinde şi la un număr mai mare de evenimente.

▪ Evenimentul contrar A sau CA („non A ”) este evenimentul a cărui realizare constă în nerealizarea
evenimentului A (mulţimea cazurilor favorabile lui „non A ” este formată din toate cazurile nefavorabile
lui A ). Oricărui eveniment din spațiul de selecție îi corespunde un eveniment contrar.

▪ Diferența A \ B este evenimentul care se realizează prin probe ale lui A şi ale lui B (cazurile
favorabile lui A care nu sunt cazuri favorabile şi lui B ).

▪ Evenimente incompatibile: evenimente care nu se pot realiza împreună în nici o efectuare a


experienţei (realizarea unuia dintre evenimente atrage după sine nerealizarea celuilalt sau altfel spus cele
două evenimente nu au nici un caz favorabil comun).
Scriere formală: „ A implică non B şi B implică non A ” ( A  B şi B  A ) sau A  B =  .

▪ Evenimente compatibile: evenimentele care au cel puţin un caz favorabil comun ( A  B   )


Corespondența dintre terminologia din teoria mulțimilor și teoria probabilităților:
Teoria mulțimilor Teoria probabilităților Notații
Mulțime totală Eveniment sigur 
Mulțimea vidă Eveniment imposibil 
Complementara lui A Eveniment contrar lui A A sau CA
A inclus în B A implică B A B
A reunit cu B Producerea evenimentului A sau a A B
evenimentului B
A intersectat cu B Producerea evenimentului A și a A B
evenimentului B
A și B disjuncte A și B incompatibile A B = 
A și B nedisjuncte A și B compatibile A B  

3. CÂMP DE EVENIMENTE, SISTEM COMPLET DE EVENIMENTE

▪  - algebră: Fiind dată o mulțime nevidă  , clasa K , K   , K  () se numește  -algebră


(sau  -câmp,  -corp) dacă:
1. pentru  A  K  A  K
2. pentru orice familie  An n 1  K , An  K .
n 1
O mulțime A  K reprezintă un eveniment.
▪ Câmp de evenimente: Cuplul ( , K ) în care  este o mulțime nevidă și K este o  -algebră se
numeşte câmp de evenimente .
Câmpul ( , K ) se numește finit sau infinit după cum mulțimea  este finită sau infinită.

▪ Sistem complet de evenimente: O familie cel mult numărabilă de evenimente A  i iI se numește

sistem complet de evenimente pe câmpul ( , K ) dacă:


1. Ai  Aj =  , pentru i, j  I , i  j
2. Ai = 
iI

2
2021 Curs MS seria A+C, ETTI Lect.dr. Purnichescu-Purtan Raluca

Observaţie: Într-un câmp finit de evenimente, mulţimea tuturor evenimentelor elementare ataşate unei
experienţe formează un sistem complet de evenimente.

Exemplu: Experienței aruncării unui zar i se asociază un câmp finit de evenimente: Evenimentele Ai =”se
obține fața i ”, i = 1, 6 sunt evenimentele elementare ale experienței și pot fi puse în corespondență
bijectivă cu elementele mulțimii  = 1, 2,3, 4,5, 6 . Orice submulțime a mulțimii  poate fi privită ca un
eveniment (evident,  se identifică cu evenimentul sigur iar  cu evenimentul imposibil). Astfel,
experienței aruncării unui zar i se poate atașa mulțimea  și mulțimea părților sale (  ) .

4. CÂMP DE PROBABILITATE
Pentru a putea cuantifica șansele de realizare a unui eveniment aleator se folosește noțiunea de
probabilitate.
Presupunem că pentru o anumită experiență aleatoare am definit spațiul de selecție  . Atunci
fiecărui eveniment A îi putem asocia un număr, P ( A ) , numit probabilitatea realizării lui A (sau simplu,
probabilitatea lui A ), fiind o măsură precisă a șanselor ca A să se realizeze.
Riguros, probabilitatea poate fi definită în mai multe moduri: clasic (apare pentru prima oară în
lucrările lui P.S. Laplace), statistic (cu ajutorul frecvențelor relative), geometric, bayesian (datorată lui T.
Bayes) sau axiomatic (Kolmogorov).
În continuare vom prezenta pe scurt trei dintre aceste moduri de definire – cele pe care le vom
folosi pe parcursul lucrării: definiția clasică, statistică și axiomatică.

4.1. Definiţia clasică a probabilităţii


Probabilitatea clasică este definită doar pentru cazul în care experiența aleatoare are un număr finit de
cazuri posibile (totale) și echiprobabile (toate au aceeași șansă de a se realiza). În acest caz, probabilitatea
de realizare a unui eveniment A este:
număr cazuri favorabile
P ( A) =
număr cazuri totale

Observație: În cazul experiențelor aleatoare cu un număr finit de cazuri totale și echiprobabile,


determinarea probabilității unui eveniment se reduce la o problemă de numărare – și anume la
determinarea numărului de cazuri (totale și favorabile) asociate evenimentului respectiv.

4.2. Definiţia statistică a probabilităţii


Probabilitatea definită statistic (numită și probabilitate frecvențială) exprimă probabilitatea cu ajutorul
frecvențelor de realizare a unui eveniment într-un număr mare de experimente aleatoare realizate în
aceleași condiții.
Considerăm o experiență aleatoare (de exemplu, aruncarea unui zar) a cărei rezultat posibil este
evenimentul aleator A (de exemplu, apariția feței cu 6 puncte). Această experiență o putem efectua de n
ori în condiții identice (spunem că efectuăm n probe ale experimentului), astfel încât rezultatul unei probe
să nu influențeze rezultatul alteia (probe independente).
Numărul de realizări ale evenimentului A în cele n probe ale experimentului se numește
vn ( A )
frecvență absolută și se notează cu vn ( A ) . Raportul f n ( A ) = se numește frecvență relativă și
n
este subunitar, pozitiv.

3
2021 Curs MS seria A+C, ETTI Lect.dr. Purnichescu-Purtan Raluca

Șirul frecvențelor relative  f ( A)n 


n are limită și aceasta este definită ca fiind probabilitatea de

realizare a evenimentului A , notată P ( A ) .

Definiția statistică a probabilității este limita șirului frecvențelor relative de producere a


respectivului eveniment, când numărul de probe tinde la infinit: P ( A ) = lim f n ( A )
n →

4.3. Definiţia axiomatică a probabilităţii


▪ (Kolmogorov, 1933): Se numeşte probabilitate (măsură de probabilitate) pe câmpul de evenimente
( , K ) o funcție P : K → + care satisface următoarele axiome:
1. P (  ) = 1 ;
 
2. pentru orice familie  An n 1  K cu An  Am =  pentru n  m , avem: P  An  =  P ( An ) .
 n1  n1
▪ Câmp de probabilitate ( , K , P ) : este un câmp de evenimente pe care s-a definit o probabilitate.
Câmpul de probabilitate este finit sau infinit după cum câmpul de evenimente pe care s-a definit
probabilitatea este finit sau infinit.

Proprietăţi ale probabilităţii:


Considerăm un câmp de probabilitate ( , K , P ) și A, B evenimente din K . Atunci:
1.  A  K  0  P ( A )  1
2. P (  ) = 1
3. P (  ) = 0

4. pentru  A, B  K cu A  B =  avem: P ( A  B ) = P ( A ) + P ( B )

dacă A  B   avem: P ( A  B ) = P ( A ) + P ( B ) − P ( A  B )

5. pentru  A, B  K cu B  A avem: P ( A \ B ) = P ( A ) − P ( B )

Mai general, pentru  A, B  K avem: P ( A \ B ) = P ( A ) − P ( A  B )

6.  A  K  P ( A ) + P A = 1 ( )
7. pentru  A, B  K cu B  A avem: P ( B )  P ( A )

Observație: Din proprietatea 4. rezultă că pentru orice A, B  K avem: P ( A  B )  P ( A ) + P ( B ) , adică


probabilitatea este o funcție subaditivă. Acest rezultat se poate generaliza la familii cel mult numărabile.

4.4. Principiul includerii şi excluderii (Formula lui H. Poincare)


Extinde şi generalizează proprietatea 4. pentru familii finite de evenimente compatibile (cu intersecţia
nevidă). Fie A1 , A2 ,...., An evenimente compatibile ( Ai  Aj   , pentru i, j = 1, n ). Atunci:

 n  n  n 
P  Ai  =  P ( Ai ) −  P ( Ai  Aj ) +  P ( Ai  Aj  Ak ) − .... + ( −1) P  Ai 
n n
n −1

 i =1  i =1 i , j =1,i  j i , j , k =1,i  j  k  i =1 

4
2021 Curs MS seria A+C, ETTI Lect.dr. Purnichescu-Purtan Raluca

5. INDEPENDENȚĂ ȘI CONDIȚIONARE
Odată introdusă noţiunea de probabilitate, putem defini două noţiuni importante în teoria
probabilităţilor şi anume noţiunea de probabilitate condiţionată şi de independenţă în probabilitate a
evenimentelor.

În multe situații practice este necesară calcularea probabilității unui eveniment A legat de un
eveniment B , în ipoteza că evenimentul B s-a realizat. Pentru aceasta restrângem mulţimea
evenimentelor care realizează evenimentul A la cele care realizează şi evenimentul B . Pentru ca această
restricţie să aibă sens este necesar ca evenimentul B să fie de probabilitate nenulă.

Fie ( , K , P ) un câmp finit de probabilitate şi A, B  K cu P ( B )  0 (respectiv P ( A )  0 )

▪ Numim probabilitatea evenimentului A condiţionată de evenimentul B (notată PB ( A ) sau


P ( A B ) ) probabilitatea de realizare a evenimentului A în ipoteza că evenimentul B s-a realizat, definită
prin:
P ( A  B)
P ( A B ) = PB ( A) =
P ( B)
Observaţie: Din definiţia de mai sus putem deduce formula simetrică a probabilității evenimentului B
condiţionată de evenimentul A (notată PA ( B ) sau P ( B A ) ) probabilitatea de realizare a evenimentului
P ( A  B)
B în ipoteza că evenimentul A s-a realizat: P ( B A) = PA ( B ) =
P ( A)
Astfel, putem defini intersecţia a două evenimente condiţionate ca fiind:

P ( A  B ) = P ( A )  PA ( B ) (sau echivalent P ( A  B ) = P ( B )  PB ( A ) )

Generalizare: intersecţia a n evenimente condiţionate succesiv:

P ( A1  A2  ....  An ) = P ( A1 )  PA1 ( A2 )  PA1 A 2 ( A3 )  ....  PA1  A 2 .... A n−1 ( An )

Fie ( , K , P ) un câmp finit de probabilitate şi A, B  K .

▪ Evenimentele A şi B sunt independente (în probabilitate) dacă probabilitatea ca unul să se


realizeze nu depinde de faptul că celălalt s-a realizat sau nu, adică:

P ( A  B ) = P ( A)  P ( B )

Definiţie echivalentă: Evenimentele A şi B cu P ( A )  P ( B )  0 sunt independente dacă şi numai dacă


are loc una din relaţiile:

• P ( B A) = P ( B ) • ( )
P B A = P ( B)

P ( A B ) = P ( A)
P ( A B ) = P ( A)

5
2021 Curs MS seria A+C, ETTI Lect.dr. Purnichescu-Purtan Raluca

Generalizare:
Spunem că evenimentele A1 , A2 ,...., An sunt independente dacă probabilitatea oricărei intersecţii finite de
evenimente este egală cu produsul probabilităţilor evenimentelor intersectate, adică:

( ) ( ) ( )
P Ai 1  Ai 2  ......  Ai k = P Ai 1  P Ai 2  ....  P Ai k ( )
oricare ar fi 1  i1  i2  ....  ik  n .

Observație: Dacă mai multe evenimente sunt independente două câte două, NU rezultă că sunt
independente în totalitatea lor, așa cum se poate vedea din exemplul următor:
Tetraedrul lui S.N.Bernstein
Considerăm un tetraedru omogen cu feţele colorate astfel: una în alb, una în negru, una în roşu şi a patra în
toate cele trei culori. Aruncând tetraedrul pe o masă el se asează pe una din feţe; ne interesează
probabilitatea apariţei fiecărei culori şi independenţa evenimentelor corespunzătoare.

6. FORMULA PROBABILITĂȚII TOTALE

Fie ( , K , P ) un câmp finit de probabilitate, Ai  K , i = 1, n , un sistem complet de evenimente şi B  K


un eveniment oarecare. Atunci:

P ( B ) =  P ( Ai )  PAi ( B )
n

i =1

( ) ( ) ( )
adică: P ( B ) = P A1  PA1 ( B ) + P A2  PA2 ( B ) + .... + P An  PAn ( B )

7. FORMULA LUI BAYES


Formula lui Bayes, numită și ”teorema ipotezelor” permite calculul probabilității condiționate
PB ( Ai ) , numită ”probabilitate a posteriori” , adică probabilitatea de realizare a ipotezei Ai , știind că
evenimentul B s-a realizat.

Fie ( , K , P ) un câmp finit de probabilitate, Ai  K , i = 1, n , un sistem complet de evenimente şi B un


eveniment oarecare. Atunci:
P ( B  Ai ) PA ( B )  P ( Ai )
PB ( Ai ) = = i

P ( B)
 P ( Aj )  PA ( B )
n

j
j =1

8. INEGALITATEA LUI BOOLE


Dă o margine inferioară pentru probabilitatea intersecţiei a două evenimente A şi B care NU sunt
independente:
P ( A  B )  P ( A) + P ( B ) − 1
Inegalitatea se poate generaliza pentru n evenimente A1 , A2 ,..., An care NU sunt independente:
P ( A1  A2  ...  An )  P ( A1 ) + P ( A2 ) + .... + P ( An ) − ( n − 1) .

6
2021 Curs MS seria A si C, ETTI Lect.dr. Purnichescu-Purtan Raluca

CURS 3
SCHEME CLASICE DE PROBABILITATE

În cele ce urmează vom considera un câmp finit de probabilitate , K , P .

1. SCHEMA LUI BERNOULLI (schema binomială)

Fie A1 , A2 ,...., An un sistem complet de evenimente independente echiprobabile cu


P ( Ai ) = pi = p . Probabilitatea să se realizeze k din cele n evenimente (şi să nu se realizeze
n − k ) este egală cu coeficientul lui x k din polinomul ( px + q ) , adică este egală cu Cnk  p k  q n − k
n

(unde q = 1 − p ).
Model ”urne-bile”:
- O urnă U (bile albe și negre)
- Se fac n extrageri, cu revenire (repunerea în urnă a bilei, după fiecare extragere).
- Probabilitatea de a extrage o bilă albă este p (și probabilitatea de a extrage una neagră este
q = 1 − p );
Probabilitatea de a extrage exact k bile albe din n extrageri este egală cu coeficientul lui x k din
polinomul: ( px + q ) , adică este egală cu Cnk  p k  q n − k .
n

Observație: Putem considera, pentru acest model ”bile-urne”, n urne identice U1 ,U 2 ,.....U n din

care se face câte o extragere (urnele conțin acelaşi număr de bile albe şi respectiv acelaşi număr de
bile negre) sau, echivalent, o singură urnă U din care se fac n extrageri, cu revenire (repunerea în
urnă a bilei, după fiecare extragere).

2. SCHEMA LUI BERNOULLI CU MAI MULTE STĂRI (schema multinomială)

Fie A1 , A2 ,...., Am un sistem complet de evenimente, cu probabilitățile de realizare P ( Ai ) = pi ,


(evenimentele Ai NU sunt echiprobabile). Probabilitatea ca din cele n efectuări ale unei
experiențe să se realizeze de n1 ori evenimentul A1 , de n2 ori evenimentul A2 , ....., de nm ori
n!
evenimentul Am (unde n1 + n2 + ... + nm = n ) este:  p1n1  p2n2  ....  pmnm
n1 ! n2 ! .....  nm !
Model ”urne-bile”:
- O urnă U conţine bile de m culori, c1 , c2 ,...., cm ;
- Se fac n extrageri, cu revenire (repunerea în urnă a bilei, după fiecare extragere);
- pi este probabilitatea ca la o extragere să obţinem o bilă de culoarea ci .
Probabilitatea ca în n extrageri să obţinem n1 bile de culoarea c1 , n2 bile de culoarea c2 , ....., nm
n!
bile de culoarea cm (unde n1 + n2 + ... + nm = n ) este:  p1n1  p2n2  ....  pmnm
n1 ! n2 ! .....  nm !

1
2021 Curs MS seria A si C, ETTI Lect.dr. Purnichescu-Purtan Raluca

Observații:
1) Evident, evenimentele Ai din sistemul complet de evenimente reprezintă extragerea bilei de
culoare ci .
2) Putem considera, pentru acest model ”bile-urne”, o singură urnă U din care se fac n extrageri,
cu revenire (repunerea în urnă a bilei, după fiecare extragere) sau, echivalent, n urne identice
U1 ,U 2 ,.....U n din care se face câte o extragere.

3. SCHEMA LUI POISSON (schema binomială generalizată)

Fie A1 , A2 ,...., An un sistem complet de evenimente independente cu P ( Ai ) = pi (şi respectiv


qi = 1 − pi , cu i = 1, n adică evenimentele Ai NU sunt echiprobabile). Probabilitatea să se realizeze
k din cele n evenimente (şi să nu se realizeze n − k ) este egală cu coeficientul lui x k din
polinomul:
( p1 x + q1 )( p2 x + q2 ) ... ( pn x + qn )
Model ”urne-bile”:
- Avem n urne U1 ,U 2 ,.....U n (bile albe şi negre în proporţii date, cunoscute);
- Se fac n extrageri, din fiecare urnă câte o bilă;
- pi este probabilitatea cu care este extrasă o bilă albă din urna U i .
Probabilitatea de a extrage k bile albe din n extrageri este egală cu coeficientul lui x k din
polinomul:
( p1 x + q1 )( p2 x + q2 ) ... ( pn x + qn ) .

4. SCHEMA LUI POISSON ”CU 3 CULORI”

Considerăm A1 , A2 ,..., An evenimente independente cu P ( Ai ) = pi , B1 , B2 ,..., Bn independente cu


P ( Bi ) = qi și C1 , C2 ,..., Cn independente cu P ( Ci ) = ri , i = 1, n . Probabilitatea să se realizeze k
din cele n evenimente Ai , j din cele n evenimente B i și m din cele n evenimente C i
(k + j+m= n) este egală cu coeficientul lui xk y j z m din polinomul:
( p1 x + q1 y + r1 z )( p2 x + q2 y + r2 z ) .... ( pn x + qn y + rn z ) .
Model ”urne-bile”:
- Avem n urne U1 ,U 2 ,.....U n (bile colorate în culorile c1 , c2 şi c3 );
Cunoaștem:
• probabilităţile pi , i = 1, n , cu care este extrasă o bilă de culoarea c1 din urna U i ,
• probabilităţile qi , i = 1, n , cu care este extrasă o bilă de culoarea c2 din urna U i ,
• probabilităţile ri , i = 1, n , cu care este extrasă o bilă de culoarea c3 din urna U i .
Probabilitatea de a extrage k bile culoarea c1 , j bile culoarea c2 şi m bile culoarea c3 ,
k + j + m = n , atunci când din fiecare urnă se extrage câte o bilă este egală cu coeficientul lui
xk y j z m din polinomul:
( p1 x + q1 y + r1 z )( p2 x + q2 y + r2 z ) .... ( pn x + qn y + rn z )

2
2021 Curs MS seria A si C, ETTI Lect.dr. Purnichescu-Purtan Raluca

5. SCHEMA HIPERGEOMETRICĂ
Model ”urne-bile”:
- O urnă U conţine a bile albe şi b bile negre;
- Se fac n extrageri ( n  a + b ), fără a se pune bila extrasă înapoi în urnă;
C k  C n−k
Probabilitatea ca din cele n bile extrase, k să fie albe ( k  a ) este: P = a n b
Ca +b

6. SCHEMA HIPERGEOMETRICĂ GENERALIZATĂ


Model ”urne-bile”:
- O urnă U conţine ai bile de culoarea ci , i = 1, m ;
- Se fac n extrageri, fără a se pune bila extrasă înapoi în urnă;
Probabilitatea de a obţine n1 bile de culoarea c1 , n2 bile de culoarea c2 , ....., nm bile de culoarea
n n
Ca 11  Ca 22  ....  Canmm
cm din cele n extrageri (cu n1 + n2 + n3 + ..... + nm = n ) este: P =
Can1+ a 2+....+ a m

3
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

CURS 4
VARIABILE ALEATOARE
1. DEFINIŢIE ŞI CLASIFICARE
Intuitiv, o variabilă aleatoare este o mărime care în urma realizării unei experienţe poate lua o valoare
dintr-o mulţime bine definită (mulţimea valorilor posibile).

Variabila aleatoare este o funcţie reală care depinde de rezultatul unui anumit experiment:
▪ Fie , K , P spaţiu de probabilitate. Funcţia X :  → se numeşte variabilă aleatoare dacă:
pentru (  ) a  
,    X ( )  a  K 
Observaţie: Mulţimea valorilor variabilei aleatoare, X (  ) , este o submulţime a mulţimii numerelor reale
( X ()  ), adică variabila aleatoare nu este obligatoriu o funcţie surjectivă.

Prin variabilele aleatoare, unui fenomen supus unor circumstanţe aleatoare i se asociază un număr
real, deci se stabileşte o corespondenţă între spaţiul de selecţie  , convenabil ales, şi .
În practică este dificil să găsim valorile acestor corespondenţe, dar este posibil să determinăm „cât
de des” sunt luate aceste valori (cu ce probabilitate). Astfel, putem defini funcţia de repartiţie a variabilei
aleatoare X .

▪ Fie , K , P spaţiu de probabilitate şi X :  → o variabilă aleatoare. Funcţia FX : →  0,1


definită prin:
FX ( x ) = P ( X  x ) , cu x 
se numeşte funcţia de repartiţie (sau de distribuţie – en. cumulative distribution function) a variabilei
aleatoare X .

Clasificarea variabilelor aleatoare se face după proprietăţile mulţimii X (  ) :


a) V.A. de tip discret – dacă X (  ) este mulţime cel mult numărabilă:
- X (  ) finită – V.A. discretă simplă
- X (  ) infinită dar numărabilă – V.A. discretă cu o infinitate de valori.
b) V.A. de tip continuu – dacă X (  ) este o mulţime infinită de numere reale.

2. VARIABILE ALEATOARE DISCRETE SIMPLE


▪ Variabila aleatoare discretă simplă este o funcţie reală ale cărei valori sunt luate cu probabilităţile
corespunzătoare unui sistem complet de evenimente.
Pentru a specifica o variabilă aleatoare discretă va trebui să enumerăm toate valorile posibile pe care
aceasta le poate lua, împreună cu probabilitățile corespunzătoare. Suma tuturor acestor probabilități este
întotdeauna egală cu 1, care este probabilitatea realizării evenimentului sigur. Când se face referire la
repartiția unei variabile aleatoare discrete simple, se înțelege modul în care probabilitatea totală 1 este
distribuită între toate posibilele valori ale variabilei respective.
Pentru a specifica riguros o variabilă aleatoare discretă simplă, considerăm o experienţă şi legat de aceasta
un sistem complet de evenimente ( Ai )1i  n .

1
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

Definim funcţia X pe acest sistem complet de evenimente şi o reprezentăm prin tabelul de asociere
(perechi ordonate) numit tabloul de repartiţie al variabilei aleatoare X :
 x1 x2 .... xn  n
X =  , cu pi  0 şi  pi = 1
 p1 p2 .... pn  i =1

unde numerele xi se numesc valorile variabilei aleatoare iar pi sunt probabilităţile cu care variabila
aleatoare ia aceste valori:
(
pi = P ( Ai ) = P  X = xi  = P    X ( ) = xi )
Convenţii:
▪ În tabloul de repartiţie se trec valorile distincte ale variabilei aleatoare;
▪ În tabloul de repartiţie NU se trec valorile luate cu probabilitatea 0.

2.1. Funcţia de repartiţie și funcția de probabilitate


Fie variabila aleatoare discretă simplă X , cu tabloul de repartiţie:
 x1 x2 .... xn  n
X =  , cu pi  0 şi p i =1
 p1 p2 .... pn  i =1

▪ Funcția de probabilitate (en. probability mass function) a unei variabile aleatoare discrete simple este
funcția care atașează fiecărei valori a variabilei probabilitatea cu care această valoare este luată:
f ( xi ) = pi = P ( X = xi ) , i = 1, n
▪ Funcția de repartiție a unei variabile aleatoare discrete simple este funcția cumulativă:

 0, x  x1
 p1, x1  x  x2

 p1 + p2, x2  x  x3
FX ( x ) = P ( X  x ) = 
 p1 + p2 + ... + pi −1 , xi −1  x  xi
 ...........................

 1, x  xn

Proprietăţi:
1) Funcţie mărginită (valoarea minimă este 0, cea maximă 1).
2) FX este o funcţie „treaptă”, continuă la dreapta (şi discontinuă la stânga) în punctele xi , cu salturi
egale cu pi în aceste puncte.
3) Este nedescrescătoare ( FX ( x1 )  FX ( x2 ) dacă x1  x2 )

Observaţie: În definirea funcţiei de distribuţie se pot folosi şi inegalităţile xi −1  x  xi , ceea ce este corect
dar duce la modificarea tipului de continuitate (în acest caz, FX este continuă la stânga şi discontinuă la
dreapta).

2.2. Reprezentare grafică


▪ Orice variabilă aleatoare discretă simplă dată prin tabloul său de repartiţie se poate reprezenta grafic
prin segmente verticale (grafic de tip ”bară”): pe axa absciselor se trec valorile variabilei aleatoare, iar pe
axa ordonatelor se trec probabilităţile corespunzătoare.
▪ Graficul funcţiei de repartiţie (distribuție) a unei variabile aleatoare discrete simple este o funcție de tip
”scară” (conform proprietăților sale).

2
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

2.3. Variabile aleatoare (discrete simple) independente


Fie variabilele aleatoare discrete simple X și Y cu tablourile de repartiție:

 x1 x2 .... xn   y1 y2 .... ym  n m
X =  , Y =  cu pi , q j  0 şi  pi =  q j = 1 .
 p1 p2 .... pn   q1 q2 .... qm  i =1 j =1

▪ X și Y se numesc independente (în totalitatea lor) dacă evenimentele ( X = xi ) și (Y = y j ) cu


i = 1, n și j = 1, m sunt independente, adică:

P ( X = xi ), (Y = y j )  = P ( X = xi )  (Y = y j )  = pi  q j

2.4. Operații cu variabile aleatoare discrete simple


Fie variabilele aleatoare discrete simple X , Y și Z cu tablourile de repartiție:
 x1 x2 .... xn   y1 y2 .... ym 
X =  , Y = 
 p1 p2 .... pn   q1 q2 .... qm 
n m
cu pi , q j  0 şi  pi =  q j = 1 . Putem defini următoarele operații (care au ca rezultat tot variabile
i =1 j =1

aleatoare simple):

 a + xi   a  xi 
1. a + X =   și a  X =   , cu a  constantă;
 pi  i =1, n  pi  i =1, n

 xi + y j   xi  y j   xik 
2. X + Y =   , X  Y =   și X k
=   ,
 p i j i =1,n  p i j i =1,n  p i i =1,n
j =1, m j =1, m

unde probabilitatea pi j este probabilitatea realizării simultane a evenimentelor ( X = xi ) și (Y = y j ) .


Altfel spus, pi j = P ( X = xi ), (Y = y j )  = P ( X = xi )  (Y = y j )  .

Observații:
▪ Dacă variabilele aleatoare X și Y sunt independente, atunci pi j = pi  q j
▪ Dacă variabilele aleatoare X și Y NU sunt independente, atunci pi j se poate determina doar din
tabloul de repartiție al unui vector aleator bidimensional, discret.
▪ Suma și produsul se pot extinde și pentru trei sau mai multe variabile aleatoare.

Alte operații cu variabile aleatoare simple:


1 1
• Inversa unei variabile aleatoare X (care ia valori nenule) – este variabila care ia valoarea când
X xi
X ia valoarea xi (caz particular al ridicării la putere pentru k = −1 );
• Raportul a două variabile aleatoare X și Y (unde Y nu ia valori nule) – este un caz particular al
1
înmulțirii variabilei X cu variabila ).
Y

3
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

3. VARIABILE ALEATOARE CONTINUE

3.1. Funcţia de repartiţie și densitatea de repartiție

Reamintim că funcţia de repartiție a unei variabilei aleatoare X este o funcție FX : →  0,1 , definită
prin: FX ( x ) = P ( X  x ) , cu x  .

Dacă X este o variabilă aleatoare continuă, funcția ei de repartiție are următoarele proprietăți:

1) Funcţie mărginită: lim F ( x ) = 0 şi lim F ( x ) = 1 ;


x →− x →+

2) FX este continuă la stânga : F ( x − 0 ) = F ( x ) pentru x  , şi are un număr cel mult numărabil de


puncte de discontinuitate de prima speţă;

3) Este nedescrescătoare ( FX ( x1 )  FX ( x2 ) dacă x1  x2 , pentru x1 , x2  ).

▪ Fie , K , P câmp de probabilitate. Considerăm o clasă de variabile aleatoare X pentru care există o
funcţie f : →  0, + ) cu un număr finit de puncte de discontinuitate de prima speţă (deci integrabilă),
ce satisface relaţia:
def
P ( X  x) = F ( x) =  f ( t ) dt
x

−

unde F ( x ) este funcţia de repartiţie a variabilei X . Atunci funcţia f se numeşte densitate de repartiție
a variabilei aleatoare X .

O variabilă aleatoare continuă se reprezintă cu ajutorul densității de repartiție sub forma:

 x 
X = 
 f ( x) 
Observaţie: Dacă f este continuă în x  , atunci F este derivabilă în x şi avem: F  ( x ) = f ( x ) .

Proprietăţi ale densității de repartiție:


1) Funcţie pozitivă: f ( x )  0 , pentru x 

2)  f ( x ) dx = 1
−

şi F continuă, atunci P ( a  X  b ) =  f ( x ) dx = F ( b ) − F ( a ) .
b
3) Dacă a, b 
a

Observație: Fie o variabilă aleatoare continuă X cu funcția de repartiție FX ( x ) = P ( X  x ) , x  .


Atunci pentru orice a, b  , cu a  b , avem:
▪ P ( X = a) = 0 ;

P ( a  X  b ) = P ( a  X  b ) = P ( a  X  b ) = P ( a  X  b ) =  f ( x ) dx = F ( b ) − F ( a )
b

a

3.2. Operații cu variabile aleatoare continue


Operațiile cu variabile aleatoare continue se definesc natural cu ajutorul densității de repartiție comună
(adică cu ajutorul vectorilor aleatori bidimensionali).

4
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

CURS 5+6
CARACTERISTICI NUMERICE ALE VARIABILELOR ALEATOARE

În cele ce urmează, pentru cazul discret vom considera o variabilă aleatoare de forma:
x
x2 .... xn  n
X = 1  , cu pi  0 şi  pi = 1
 p1
p2 .... pn  i =1

 x 
iar pentru cazul continuu vom considera o variabilă aleatoare X =   , cu x  .
 f ( x) 

1. MEDIA
Pentru o variabilă aleatoare, media (en. mean, expected value) este o măsură a tendinței centrale a
valorilor sale.
▪ Dacă X este variabilă aleatoare discretă simplă, cu funcția de probabilitate f ( xi ) = pi , media ei
este numărul:
n
M  X  = x1  p1 + x2  p2 + ..... + xn  pn =  xi  pi
i =1

▪ Dacă X este variabilă aleatoare continuă, cu densitatea de repartiție f ( x ) , media ei este


integrala improprie:
+
M X  =  x  f ( x ) dx (trebuie să fie convergentă)
−

Observație: Dacă g ( x ) este o funcție și X este o variabilă aleatoare, atunci media variabilei aleatoare
n
g(X ) este M  g ( X )  =  g ( xi )  pi (pentru cazul discret) și respectiv
i =1
+
M  g ( X )  =  g ( x )  f ( x ) dx (pentru cazul continuu).
−

Notații uzuale pentru medie: m , E  X  ,  .

Observaţie: Pentru cazul discret cu o infinitate de valori numărabile, media variabilei aleatoare se

definește prin seria x p
i =1
i i care trebuie să fie convergentă. Dacă seria este divergentă, variabila aleatoare

NU are medie. Similar, dacă integrala improprie care definește media unei variabile continue nu este
convergentă, atunci respectiva variabilă NU are medie.

Proprietăţi ale mediei


1) valoarea medie a unei constante este egală cu constanta: M  c  = c
2) dacă X este o variabilă aleatoare şi a  o constantă, atunci au loc relaţiile:
M  a + X  = a + M  X  şi M  a  X  = a  M  X 
3) valoarea medie a unei variabile aleatoare este cuprinsă între cea mai mică şi cea mai mare dintre
valorile posibile ale variabilei aleatoare:
a  M X   A
(unde am notat a = min xi şi A = max xi )
i i
1
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

4) valoarea medie a unei sume finite de variabile aleatoare este egală cu suma valorilor medii ale
variabilelor aleatoare respective:
M  X + Y + Z + ... = M  X  + M Y  + M  Z  + ....
5) valoarea medie a unui produs de variabile aleatoare independente este egală cu produsul mediilor
variabilelor considerate:
M  X  Y  Z  ... = M  X   M Y   M  Z   ....
Dacă variabilele aleatoare NU sunt independente, se calculează variabila produs şi apoi media ei, cu
definiţia.

6) oricare ar fi variabila aleatoare X , are loc relaţia:


( M  X )
2
 M  X 2 

2. MOMENT INIȚIAL DE ORDIN k

Pentru o variabilă aleatoare X , momentul inițial de ordin k , cu k  , este media variabilei X k .


Notații uzuale: mk sau M k  X  sau M  X k  .

▪ Dacă X este variabilă aleatoare discretă simplă:

mk = M  X k  =  xik  pi
i 1

▪ Dacă X este variabilă aleatoare continuă:



mk = M  X k  =  x k  f ( x ) dx
−

Observaţii:
▪ Momentul iniţial de ordinul 0 al unei variabile aleatoare X este:

m0 = M  X 0  = M 1 = 1

▪ Momentul iniţial de ordinul 1 al unei variabile aleatoare X este chiar media variabilei:

m1 = M  X 1  = M  X  .

3. MOMENT CENTRAT DE ORDIN k


În raport cu variabila aleatoare X , se numeşte moment centrat de ordin k raportat la constanta a media
variabilei ( X − a ) .
k

Pentru a = M  X  (constanta este media variabilei X ), obţinem momentul centrat de ordin k al


variabilei X :
▪ Dacă X este variabilă aleatoare discretă simplă:

k ( X ) = M ( ( X − M  X ) ) =  ( x − M  X )  p
k

i 1
i
k
i

▪ Dacă X este variabilă aleatoare continuă:

k ( X ) = M ( ( X − M  X ) ) =  k 

−
( x − m)
k
f ( x ) dx

2
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

Observaţie: Variabila aleatoare X − M  X  se numeşte abaterea de la medie a variabilei aleatoare X .


Evident, media acestei variabile este nulă: M  X − M  X  = 0 .

4. DISPERSIA
Pentru o variabilă aleatoare care are medie finită, dispersia (sau varianța, en. variance) este un indicator
numeric al gradului de împrăștiere (dispersare) a valorilor variabilei aleatoare în jurul mediei .

Notații uzuale: D  X  ,  2 , Var  X  .


2

Dispersia variabilei aleatoare X este momentul centrat de ordinul 2 al variabilei:

D 2  X  = M ( X − m )  , unde m = M  X 
2
 
▪ Dacă X este variabilă aleatoare discretă simplă, cu funcția de probabilitate f ( xi ) = pi , dispersia
ei este:
n
D 2  X  =  ( xi − m )  pi
2

i =1

▪ Dacă X este variabilă aleatoare continuă, cu densitatea de repartiție f ( x ) , dispersia ei este


integrala improprie:
+
D2  X  =  ( x − m)  f ( x ) dx
2
−

Formulă de lucru utilă (indiferent de tipul variabilei aleatoare):

D 2  X  = M  X 2  − ( M  X )
2

Proprietăţi ale dispersiei


1) dispersia unei constante este nulă: D  c  = 0
2

2) două variabile aleatoare care diferă printr-o constantă au dispersiile egale:


D2 a + X  = D2  X  .
3) D  aX  = a D  X  .
2 2 2

4) dispersia unei sume finite de variabile aleatoare independente (în totalitate sau două câte două) este
egală cu suma dispersiilor:
D 2  X + Y + Z + ... = D 2  X  + D 2 Y  + D 2  Z  + ...

5. ABATEREA STANDARD
În practică nu se foloseşte dispersia (care, din punct de vedere dimensional reprezintă pătratul variabilei în
cauză) ci abaterea standard (en. standard deviation):  = D 2  X  , care are avantajul exprimării prin
aceleaşi unităţi de măsură ca şi valorile variabilei aleatoare X .
Proprietăţi ale abaterii standard (rezultă din proprietăţile dispersiei):
a)   c  = 0 , unde c  ;

b)   a + X  =   X  ;

3
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

c)   aX  = a    X  .

6. COVARIANȚA
Covarianța este un indicator numeric al legăturii dintre 2 variabile aleatoare și reprezintă momentul
centrat mixt al celor două variabile.
Acest indicator se poate calcula dacă momentele inițiale de ordinul 1 și 2 ale celor două variabile aleatoare
există și sunt finite.
Covarianța variabilelor aleatoare X şi Y se definește prin:
Cov  X , Y  = M ( X − M  X ) (Y − M Y ) 

sau (formulă echivalentă): Cov  X , Y  = M  XY  − M  X  M Y 

Proprietăţi ale covarianței


1) Cov  X , Y  = Cov Y , X  ;

2) Cov  X , X  = D  X  ;
2

3) Pentru orice două constante a, b  avem: Cov  X + a, Y + b  = Cov  X , Y  ;

4) Cu ajutorul covarianței se poate exprima dispersia sumei a două variabile aleatoare X şi Y :


D 2  X  Y  = D 2  X  + D 2 Y   2Cov  X , Y 

5) Dacă X şi Y sunt variabile aleatoare independente, atunci Cov  X , Y  = 0 . RECIPROC NU ESTE


ADEVĂRAT: variabilele aleatoare X şi Y pot avea covarianța nulă și să nu fie independente (un exemplu în
acest sens se poate da doar cu ajutorul vectorilor bidimensionali aleatori).

7. COEFICIENTUL DE CORELAȚIE
Coeficientul de corelație al variabilelor aleatoare X şi Y (cu abaterile standard  X  0 şi  Y  0 ) este o
măsură a dependenței liniare dintre cele două variabile și este reprezentat de numărul:
Cov  X , Y 
  X ,Y  = .
 X  Y
Valoarea pozitivă a coeficientului de corelație indică faptul că valorile celor două variabile aleatoare cresc
sau descresc împreună, iar o valoare negativă a coeficientului de corelație indică faptul că valorile uneia
dintre variabile cresc în timp ce valorile celeilalte descresc.

Proprietăţi ale coeficientului de corelație


1) Dacă X şi Y sunt variabile aleatoare independente, atunci   X , Y  = 0 . Reciproca NU este adevărată.
(variabilele aleatoare pot fi necorelate – ceea ce este echivalent cu faptul că au covarianța nulă – fără a fi
independente.
2) Pentru orice variabile aleatoare X şi Y avem: −1    X , Y   1 ;

3) Dacă pentru două constante reale a şi b , variabila aleatoare Y se poate scrie: Y = aX + b , atunci:
 1, a  0
  X ,Y  =  (a se reține acest aspect pentru cursul în care se va stabili legătura dintre
−1, a  0
coeficientul de corelație și dreapta de regresie ).

4
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

Observație: Corelațiile ”puternice” între două variabile au coeficientul de corelație (în modul) cât mai
apropiat de 1. Cu cât valoarea coeficientului de corelație este mai aproape de 0, cu atât ipoteza conform
căreia cele două variabile sunt necorelate este mai ușor de acceptat. În statistică, valori ale coeficientului
de corelație de 0.12 sau -0.15 indică faptul că cele două variabile nu prezintă o asociere de tip liniar.

8. FUNCȚIA GENERATOARE DE MOMENTE


Se folosește pentru simplificarea calculelor momentelor unei variabile aleatoare.

▪ Se numeşte funcţie generatoare de momente a unei variabile aleatoare X , valoarea medie a variabilei
et X , unde t  .
, dată prin: g X ( t ) = M e  .
t X
Notăm funcţia generatoare de momente cu g : →

▪ Dacă X este variabilă aleatoare discretă simplă:


n
g X ( t ) = M et  X  =  et xi pi
i =1

▪ Dacă X este variabilă aleatoare continuă:



g X ( t ) = M e t  X  =  et x f ( x ) dx
−

Proprietăţi ale funcţiei generatoare de momente


Considerăm variabila aleatoare X cu funcția generatoare de momente g X ( t ) . Atunci:
1) g X ( 0 ) = 1 ;
2) Dacă X1 , X 2 ,...., X n sunt variabile aleatoare independente atunci:
g X1 + X 2 +...+ X n ( t ) = g X1 ( t )  g X 2 ( t )  ....  g X n ( t )
3) Dacă Y = aX + b , cu a, b  atunci:
g Y ( t ) = g X ( at )  e b t

tk
4) Dacă X admite momente finite de orice ordin, atunci g X ( t ) =   m k .
k =0 k !
5) Formula generării momentelor iniţiale
Funcţia generatoare de momente este de n ori derivabilă în raport cu t şi g ( ) ( 0 ) = mk (sau
k

g ( ) (t ) = m k ).
k
t =0

6) Dacă X este variabilă aleatoare discretă simplă, forma derivatei de ordin k a funcţiei
n n
g X ( t ) =  et xi pi este: g X ( ) ( t ) =  xi k  e i pi , deci înlocuind pe t cu 0 obţinem:
k tx

i =1 i =1
n
g ( ) (t ) = g X ( ) ( 0 ) =  xi k pi = m k
k k
t =0
i =1

7) Dacă X este variabilă aleatoare continuă, forma derivatei de ordin k a funcţiei


 
g X ( t ) =  e f ( x ) dx este: g X
tx (k )
( t ) = − x k
 e f ( x ) dx , deci înlocuind pe t cu 0 obţinem:
t x
−

g ( ) (t ) = g X ( ) ( 0 ) =  x k f ( x ) dx = m k
k k
t =0 −

5
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

9. FUNCȚIA CARACTERISTICĂ
Funcția caracteristică este foarte utilă în studiul unei variabile aleatoare deoarece cu ajutorul ei se
pot determina funcția de repartiție și momentele de orice ordin ale variabilei aleatoare. Pe de altă parte,
calculul cu funcții de repartiție poate fi dificil (datorită discontinuităților acestor funcții) dar calculele cu
funcția caracteristică sunt mai facile (funcțiile caracteristice sunt continue).
De asemenea, faptul că produsului de convoluție a două funcții de repartiție îi corespunde produsul
obișnuit al funcțiilor caracteristice constituie un avantaj în studiul diferitelor proprietăți ale variabilelor
aleatoare.

Pentru introducerea noțiunii de funcție caracteristică este necesară extinderea definiției variabilei
aleatoare reale și în cazul complex.

▪ Fie câmpul de probabilitate , K , P și variabilele aleatoare X , Y :  → . Se numește variabilă


aleatoare complexă variabila Z = X + iY (unde i 2 = −1 ). Valoarea medie a variabilei complexe este:
M  Z  = M  X  + i  M Y  , dacă mediile M  X  și M Y  există.

▪ Se numeşte funcţie caracteristică a unei variabile aleatoare X , valoarea medie a variabilei eit X , unde
t  şi i 2 = −1 .

, dată prin:  X ( t ) = M e


it  X
Notăm funcţia caracteristică cu  : →  .

▪ Dacă X este variabilă aleatoare discretă simplă:


n
 X ( t ) = M eit  X  =  eitxk pk
k =1

▪ Dacă X este variabilă aleatoare continuă:



 X ( t ) = M eit  X  =  e it x f ( x ) dx
−

Deoarece e it x = 1 , funcția caracteristică există pentru orice variabilă aleatoare și este unic determinată
de funcția de repartiție.

Dacă se cunoaște funcția caracteristică a unei variabile aleatoare continue, cum se poate determina funcția
de repartiție?

▪ Teorema de inversiune: Fie X o variabilă aleatoare pentru care se cunoaște  X ( t ) și a cărei


funcție de repartiție este F . Dacă x1  x2 sunt două puncte de continuitate pentru F , atunci:
− it x1 −it x 2
−e
F ( x 2 ) − F ( x1 ) =
1 e

a
lim  ( t ) dt
2 a → −a it
▪ Dacă  X ( t ) este absolut integrabilă pe , atunci funcția de repartiție F are derivata f continuă
(densitatea de repartiție) și avem:
1 
f ( x) =
2  −
e −it x ( t ) dt

deci densitatea de repartiție a lui X este transformata Fourier a lui  X ( t ) .

Observație: Pentru orice   putem scrie: e i = cos  + i sin  şi respectiv: e−i = cos  − i sin  .

6
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

Proprietăţi ale funcţiei caracteristice


Considerăm variabila aleatoare X cu funcția caracteristică  X ( t ) . Atunci:

1)  X ( t ) este o funcţie uniform continuă pe ;

2)  X ( 0 ) = 1 și  X ( t )  1 , pentru t  ;

3)  X ( t ) =  X ( −t ) , pentru t  ;

4) Dacă X1 , X 2 ,...., X n sunt variabile aleatoare independente atunci:

 X1 + X 2 +...+ X n ( t ) =  X1 ( t )   X 2 ( t )  ....   X n ( t )
Consecinţe:

4.1) Dacă Y =   k  X k , cu k  , atunci Y ( t ) =   X k (  k t ) .


n n

k =1 k =1

4.2) Un produs de funcţii caracteristice este tot o funcţie caracteristică.

În particular,  X ( t )  este tot o funcţie caracteristică.


n

5) Dacă Y = aX , cu a  , atunci:

Y ( t ) =  X ( at )

6) Dacă Y = aX + b , cu a, b  atunci:

Y ( t ) =  X ( at )  e ib t

( it )

k
7) Dacă X admite momente finite de orice ordin, atunci  X ( t ) = 
k =0 k!
 mk .

8) Formula de legătură cu momentele iniţiale. Funcţia caracteristică este de n ori derivabilă în raport cu t
1 (k ) 1
şi k
 X ( 0 ) = mk (sau k  ( k ) ( t ) t =0 = mk ).
i i
9) Dacă X este variabilă aleatoare discretă simplă, forma derivatei de ordin k a funcţiei
n n
X (t ) =  e
it  x j
p j este:  X (
k)
( t ) =  i k  x j k  e itx j
p j , deci înlocuind pe t cu 0 obţinem:
j =1 j =1

n
 (k ) (t ) t =0 =  X ( k ) ( 0 ) = i k  x j k p j = i k  mk
j =1

10) Dacă X este variabilă aleatoare continuă, forma derivatei de ordin k a funcţiei
 
 X ( t ) =  e it x f ( x ) dx este:  X ( k ) ( t ) =  i k  x k  e it x f ( x ) dx , deci înlocuind pe t cu 0 obţinem:
− −


 (k ) (t ) t =0 =  X ( k ) ( 0 ) = i k  x k  e it x f ( x ) dx = i k  m k
−

7
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

10. ALTE CARACTERISTICI NUMERICE (DE CITIT)

10.1. Coeficientul de variație


Acest coeficient se folosește cu precădere în statistică, pentru compararea variațiilor a două sau mai multe
seturi de date (selecții) corespunzătoare unei caracteristici de interes, reprezentate de o variabilă aleatoare
X . Dacă dispersiile sunt egale, atunci selecția care are media mai mică prezintă o variație mai mare a
valorilor.

Pentru o variabilă aleatoare X , coeficientul de variație este numărul real:



CV = ,
m
unde  este abaterea standard iar m este media variabilei.

Uneori coeficientul de variație se poate folosi și sub formă de procente: CV = 100%
m

10.2. Asimetria
Pentru o variabilă aleatoare X , asimetria (coeficientul de asimetrie, en. skewness) este numărul real (dacă
există):
3 ( X )
A( X ) =
3
unde 3 ( X ) = M (( X − M  X ) ) este momentul centrat de ordinul 3 al variabilei aleatoare iar  este
3

abaterea standard.
Asimetria furnizează informații despre forma graficului repartiției variabilei aleatoare X . Dacă f ( x ) este
densitatea de repartiție a lui X , atunci:
▪ A ( X )  0  graficul lui f are ”coadă” la stânga;
▪ A ( X )  0  graficul lui f are ”coadă” la dreapta;
▪ A ( X ) = 0  graficul lui f este simetric în raport cu media.

10.3. Aplatizarea
Pentru o variabilă aleatoare X , aplatizarea (coeficientul de aplatizare, excesul sau boltirea, en. kurtosis)
este numărul real (dacă există):

4 ( X )
E(X ) = −3
4

unde 4 ( X ) = M (( X − M  X ) ) este momentul centrat de ordinul 4 al variabilei aleatoare iar  este


4

abaterea standard.

8
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

Aplatizarea se folosește pentru a compara gradul de împrăștiere al unei variabile aleatoare continue în
raport cu împrăștierea variabilei aleatoare normale standard (0,1) (descrisă în cursul următor).

Dacă f ( x ) este densitatea de repartiție a lui X , atunci:

▪ E ( X )  0  repartiție leptocurtică - graficul lui f are împrăștiere mai mică decât (0,1) (este mai
”ascuțit”);

▪ E ( X )  0  repartiție platicurtică - graficul lui f are împrăștiere mai mare decât (0,1) (este mai
”turtit”);

▪ E ( X ) = 0  repartiție mezocurtică - graficul lui f coincide cu graficul (0,1) .

9
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

CURS 7
REPARTIŢII CLASICE
Repartiții ale variabilelor aleatoare discrete simple

1. Repartiția Bernoulli
Variabila aleatoare Bernoulli este folosită pentru descrierea unei experiențe cu numai două
rezultate posibile (complementare), în situația în care experiența se efectuează o singură dată (de exemplu,
aruncarea unei monede care are ca rezultate posibile obținerea ”banului” sau a ”stemei”, extragerea unei
bile dintr-o urnă care conține bile de 2 culori, etc).
Deseori, cele 2 rezultate posibile, complementare, descrise printr-o variabilă Bernoulli sunt numite
generic ”succes” și ”insucces” (”succesul” este rezultatul care ne interesează, pe care îl contorizăm și nu are
întotdeauna conotație pozitivă – de exemplu, ne interesează probabilitatea găsirii unei piese defecte într-
un lot de piese, caz în care ”succesul” este atribuit extragerii unei piese defecte).
Atribuind, formal, valoarea 1 pentru ”succes” și valoarea 0 pentru ”insucces”, reprezentarea unei
variabile aleatoare Bernoulli este:
0 1
X = 
q p
unde p este probabilitatea evenimentului de care suntem interesați (”succesul”) iar q este probabilitatea
evenimentului contrar: p + q = 1.
Parametrul repartiției Bernoulli: p ;
Media: M  X  = p ; Dispersia: D  X  = p (1 − p ) .
2

Funcția generatoare de momente: g X ( t ) = (1 − p ) + p  e t


Funcția caracteristică:  X ( t ) = (1 − p ) + p  e it

2. Repartiția binomială
Repartiția binomială reprezintă o generalizare a repartiției Bernoulli și este folosită pentru
descrierea unei experiențe cu numai două rezultate posibile (complementare), în situația în care experiența
se repetă de n ori (evident, în condiții similare, fără a se modifica probabilitatea de apariție a celor două
rezultate). Reprezentarea unei variabile aleatoare X cu repartiție binomială este:
 0 1 ... ... k n   k 
X = 0 0 n 11 n −1 k n 0
k k n−k
=  k k n −k 
 Cn p q C pq
n ... Cn p q   Cn p q 
... Cn p q
unde p este probabilitatea evenimentului de care suntem interesați iar q este probabilitatea
evenimentului contrar: p + q = 1.
Se notează: X  Bi ( n, p ) .
Valorile variabilei aleatoare (de la 0 la n ) corespund numărului de apariții ale rezultatului
(evenimentului) de care suntem interesați (denumit, generic, ”succes”, ca și în cazul variabilei aleatoare
Bernoulli).
Parametrii repartiției binomiale: n și p ;
Media: M  X  = n  p ; Dispersia: D  X  = n  p  (1 − p ) .
2

Funcția generatoare de momente: g X ( t ) = ( p  e t + 1 − p )


n

Funcția caracteristică:  X ( t ) = ( p  e it + 1 − p )
n

1
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

3. Repartiția Poisson (legea evenimentelor rare)


Este un caz particular al repartiției binomiale, când numărul de repetiții ale experienței este foarte
mare iar probabilitatea evenimentului de care suntem interesați este foarte mică (”eveniment rar”).
În repartiția binomială, dacă n →  , p → 0 dar produsul n  p =  rămâne constant, se obține
repartiția Poisson (în general, pentru p  0,1 și n  p  5 se poate folosi repartiția Poisson ca o bună
aproximare a repartiției binomiale).
Reprezentarea unei variabile aleatoare X cu repartiție Poisson este:
 0 1 2 ... n ...   k 
X =  −  2 n
= k  , cu k 
−  
şi  0
 e e−  e−  ... e−   
...   e 
 1! 2! n!   k! 
Dacă notăm cu a numărul de apariții ale unui eveniment în unitatea de timp, atunci  = a  t
reprezintă media aparițiilor evenimentului într-un interval de timp de lungime t . Probabilitatea apariției de
k
k ori a evenimentului în intervalul de timp de lungime t este P ( X = k ) = e−  .
k!
Parametrul repartiției Poisson:  ;
Media: M  X  =  ; Dispersia: D  X  =  ;
2

Funcția generatoare de momente: g X ( t ) = e


(
 e t −1 );

Funcția caracteristică:  X ( t ) = e
(
 e it −1 ).

4. Repartiția geometrică (a „primului succes”, repartiţia Pascal)


Variabila aleatoare geometrică reprezintă numărul de încercări efectuate într-un șir de
experimente Bernoulli independente, cu același parametru p , până la apariția primului ”succes”. De
exemplu, numărul de aruncări ale unui zar până la obținerea feței cu 6 puncte (”succesul”) este o variabilă
aleatoare geometrică cu parametrul p = 1/ 6 , fiecare aruncare a zarului fiind asociată cu un experiment de
tip Bernoulli (”succesul” este fața cu 6 puncte, deci p = 1/ 6 iar ”insuccesul” este reprezentat de toate
celelalte fețe, cu q = 5 / 6 ).
Reprezentarea unei variabile aleatoare X cu repartiție geometrică este:
1 2 3 .... n .... 
X = n −1  , cu 0  p, q  1 şi p + q = 1
p pq p  q .... p  q
2
.... 

Parametrul repartiției geometrice: p ;


1 1− p
Media: M  X  = ; Dispersia: D 2  X  = 2 .
p p
p
Funcția generatoare de momente: g X ( t ) = , t  − ln (1 − p ) ;
(1 − p ) 1 − (1 − p )  e t 
p
Funcția caracteristică:  X ( t ) = .
(1 − p ) 1 − (1 − p )  e it 

5. Repartiția binomială negativă


Variabila aleatoare binomială negativă este o generalizare a variabilei aleatoare geometrice și
reprezintă numărul de încercări efectuate într-un șir de experimente Bernoulli cu parametrul p până la
obținerea a k  1 ”succese”.
2
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

Numele de ”negativă” provine din faptul că, dacă la variabila aleatoare binomială numărul de
încercări n era fixat și numărul k de succese era aleator, la variabila aleatoare binomială negativă numărul
de succese k este fixat iar numărul de încercări este aleator. Variabila aleatoare binomială negativă este,
într-un anumit sens, ”opusa / negativa” variabilei aleatoare binomiale.

Reprezentarea unei variabile aleatoare X cu repartiție binomială negativă este:


 k k +1 k +2 k +3 ......   x 
X =  k −1 k 0  =  k −1 k x − k  , cu k , x 
*
și x  k
 Ck −1 p q Ckk −1 p k q1 Ckk+−11 p k q 2 k −1 k 3
Ck + 2 p q ......   Cx −1 p q 

Parametrii repartiției binomiale negative: p și k ;


k k (1 − p )
Media: M  X  = ; Dispersia: D 2  X  = ;
p p2
k
 p et 
Funcția generatoare de momente: g X ( t ) = 
 1 − (1 − p )  e t  , t  − ln (1 − p ) ;
 
k
 p  e it 
Funcția caracteristică:  X ( t ) =   .
 1 − (1 − p )  e it
 

6. Repartiția uniformă discretă


Variabila aleatoare uniformă (discretă) este folosită pentru descrierea unei experiențe cu n rezultate
1
posibile echiprobabile (deci probabilitatea realizării oricăruia dintre rezultate este p = )
n
Reprezentarea unei variabile aleatoare X cu repartiție uniformă discretă este:
 1 2 ... k ... n 
X =1 1 1

1
 ... ... 
n n n n
Parametrul repartiției uniforme discrete: n ;
n +1 n2 − 1
Media: M  X  = ; Dispersia: D  X  =
2
;
2 12

Funcția generatoare de momente: g X ( t ) =


e t 1 − ent
;
( )
n 1− et ( )
e it (1 − ei nt )
Funcția caracteristică:  X ( t ) = .
n (1 − e it )

Repartiții ale variabilelor aleatoare continue


Reamintim:
O funcţie f : → este densitate de repartiție (probabilitate) dacă:
▪ f ( x )  0 pentru x 
▪ are un număr finit de discontinuităţi (de prima speţă)
▪ este mărginită

▪  f ( x ) dx = 1
−

3
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

1. Repartiția uniformă continuă


Variabila aleatoare uniformă continuă este varianta continuă a variabilei uniforme discrete, folosită pentru
descrierea unei experiențe cu n rezultate posibile echiprobabile, când n tinde la infinit.
Variabila aleatoare uniformă continuă X are densitatea de repartiție :
 1
 , x  ( a, b )
f ( x) = b − a , cu b  a 
 0 , x  ( a, b )

și se notează: X  Unif ( a, b ) .
Parametrii repartiției uniforme continue: a și b ;
a+b
Media: M  X  = ;
2
(b − a )
2

Dispersia: D  X  2
= .
12
 et b − et a
 , t  \ 0
Funcția generatoare de momente: g X ( t ) =  t ( b − a )
 t =0
 1,
eit b − eit a
Funcția caracteristică:  X ( t ) = , t \ 0
it ( b − a )

2. Repartiția exponențială
O variabilă aleatoare X are repartiţie exponenţială de parametru   0 dacă densitatea ei de repartiție
este de forma:
  e −   x , x  0
f ( x) = 
 0 , x0
și se notează: X  Exp (  ) .
Parametrul repartiției exponențiale:  ;
1
Media: M  X  = ;

1
Dispersia: D 2  X  = ;
2

Funcția generatoare de momente: g X ( t ) = , pentru orice t   .
 −t

Funcția caracteristică:  X ( t ) =
 − it

Interpretarea parametrului  :
În multe situații practice suntem interesați de timpul scurs până la apariția unui eveniment – de exemplu
timpul până la sosirea unui autobuz în stație, timpul până la primirea primului apel telefonic într-o centrală
telefonică sau timpul până la sosirea primului client într-o benzinărie. În toate aceste situații putem
considera că timpul scurs până la apariția evenimentului dorit este o variabilă aleatoare X cu proprietatea
că probabilitatea ca X să ia valori într-un anumit interval (de timp, în exemplele de mai sus) este
proporțională cu lungimea acelui interval. Parametrul repartiției exponențiale este tocmai constanta de
proporționalitate.

4
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

3. Repartiția normală (Gauss)


O variabilă aleatoare X are repartiţie normală (Gauss) dacă densitatea ei de repartiție este de forma:
( x − m)
2

1 −
f ( x) = 2 şi   0
2
e , cu m
 2
Se notează: X  (m,  ) .

Graficul densității de repartiție pentru variabila aleatoare normală are formă de clopot (se mai numește
”Clopotul lui Gauss”) și are următoarele proprietăți:
 1 
▪ Admite un unic punct de maxim, de coordonate  m, ;
  2 
▪ Este simetric în raport cu dreapta x = m ;
▪ Își modifică convexitatea în x = m −  și x = m +  ;

▪ Modificarea parametrului m (cu  fixat) translatează graficul de-a lungul axei Ox :

▪ Modificarea parametrului  (cu m fixat) modifică aplatizarea (excesul) curbei:

▪ Suma a două variabile aleatoare normale X 1  ( m1 ,  1 ) și X 2  ( m2 ,  2 ) este tot o variabilă

aleatoare normală: X 1  X 2  (m  m ,
1 2  12 +  22 . )
▪ Dacă X 1 , X 2 ,..., X n  ( m,  ) sunt variabile aleatoare independente și identic repartizate, atunci
X 1 + X 2 + ... + X n   
variabila aleatoare Y = este repartizată normal: Y  m, .
n  n

Dacă m = 0 și  = 1 spunem că X are o repartiție normală standard și scriem X  ( 0,1) . Evident, în


acest caz densitatea de repartiție este:

5
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

x2
1 −
f ( x) = e 2
2
Funcția de repartiție (cunoscută sub numele de funcția Gauss-Laplace) este:
2
notatie 1 −t
FX ( x ) =  ( x) =
x

2  −
e 2 dt

▪ În practică este deseori util să transformăm o variabilă aleatoare normală X  (m,  ) într-o
variabilă aleatoare normală standard (0,1) . Pentru aceasta, se folosește transformarea:
X −m
Z=  ( 0,1)

Parametrii repartiției normale: m și  ;


Media: M  X  = m ; Dispersia: D 2  X  =  2 .
mt +  t
2 2

Funcția generatoare de momente: g X ( t ) = e 2 , t


im t −  t
2 2

Funcția caracteristică:  X ( t ) = e 2

4. Funcția Gauss-Laplace
Se notează cu ( x) și este funcția de repartiție a unei variabile aleatoare cu distribuția normală standard
X ( 0,1) :
t2
1 x −
( x) = FX ( x) =
2 −
e 2 dt

Proprietăți:
1) (−) = 0
2) (+) = 1
1
3) (0) =
2
4) ( x) + (− x) = 1 (este simetrică față de 0)

▪ ( x) se poate folosi pentru calcularea P ( a  X  b ) , unde X  ( m,  ) :


( x −m) 2
1 − b−m  a−m

b
P (a  X  b) = e 2 2 dx =  − 
 2 a      
(cu schimbarea de variabilă x − m =  t )

(
▪ ( x) se poate folosi pentru calcularea P X − m  k , unde X  ) ( m,  ) :
P ( X − m  k ) = 2 ( k )

▪ Funcția de repartiție a oricărei variabile X  (m,  ) se poate reprezenta cu ajutorul funcței Gauss-
Laplace:

6
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

(t −m ) 2
def 1 −  x−m

x
P ( X  x ) = F ( x) = e 2 2 dt =  
 2 −   

Observații:
▪ Valorile funcției Gauss-Laplace sunt tabelate (Anexa 3 – Tabelul A)
▪ Funcția Gauss-Laplace se folosește foarte mult în inginerie, deoarece în majoritatea proceselor de
măsurare (unde intervin, inevitabil, erori de măsurare) se consideră că erorile urmează o distribuție
normală standard.
▪ altă abordare în cuantificarea erorilor de măsurare presupune calcularea ”funcției erorilor”, notată
 2
erf ( x ) , care este funcția de repartiție a unei variabile aleatoare Y   0,  care ia valori în
 2 
intervalul  − x, x  :
1 x
erf ( x ) =  e−t dt
2

 −x

▪ Valoarea funcției erorilor se poate afla cu ajutorul funcției Gauss-Laplace, legătura dintre aceste două
funcții fiind dată de relația:
1  x 
 ( x) = 1 + erf  
2  2 

Observație: În calculele legate de variabile aleatoare continue, un rezultat des folosit este valoarea
x2
 −
integralei Euler-Poisson: 
−
e 2
dx = 2 . A nu se confunda cu funcția de repartiție
t2
1 −

x
 ( x) = F ( x) = e 2 dt . (capetele integralelor diferă !)
2 −

În definirea următoarelor repartiții intervine noțiunea de ”grade de libertate”. Această noțiune este
specifică fizicii și statisticii matematice și, în general, în definirea ei se folosește mărimea eșantionului de
date și numărul parametrilor care se vor estima.
Pentru a defini gradele de libertate strict în contextul repartițiilor de variabile aleatoare, să considerăm mai
întâi un exemplu.
1 2 3 n
Considerăm o variabilă aleatoare discretă X cu n valori: X =  
 p1 p2 p3 pn 
Pentru a determina complet repartiția lui X este suficient să cunoaștem doar n − 1 din cele n
n
probabilități, a n -a probabilitate putând fi calculată în funcție de celelalte astfel: pk = 1 − p
i =1
i . Acest
ik

lucru este echivalent cu a spune că avem n − 1 grade de libertate (din cei n parametri necesari, n − 1 sunt
independenți și unul este dependent – se poate determina printr-o relație cunoscută în funcție de ceilalți).
Pe scurt, gradele de libertate ale unei variabile aleatoare reprezintă numărul de parametri
independenți suficienți pentru a-i determina complet repartiția.

Repartiția ”Chi pătrat”(opțional)


Considerăm variabilele aleatoare independente repartizate normal, cu aceeași medie și aceeași
dispersie, X1 , X 2 ,..., X n  (m,  ) . Funcția de repartiție a variabilei X definită prin:
n
1
X= ( X − m)
2

 2
i =1
i

7
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

se numește repartiție  2 (”chi pătrat”).


Deoarece putem transforma orice variabilă aleatoare normală X  (m,  ) într-o variabilă
X −m
aleatoare normală standard (0,1) cu ajutorul transformării Z =  ( 0,1) , putem defini

variabila aleatoare  2 ca fiind suma pătratelor a n variabile aleatoare normale standard
Z1 , Z2 ,..., Zn  (0,1) :
 X −m
n n 2

X =  i   Zi
= 2

i =1    i =1

O variabilă aleatoare X cu repartiţie  2 și n grade de libertate (presupunem că însumăm


pătratele a n + 1 variabile aleatoare normale standard) are densitatea de repartiție de forma:
 1 −
x n
−1
 n e  x2 , x  0
2
 n
f ( x) =  22    
 2
 0, x0
și se notează: X   2 . În definirea densității de repartiție apare funcția Gamma (funcția lui Euler de speța
a doua) ale cărei valori și proprietăți sunt cunoscute (vezi Anexa 2).

Observație: Dacă am fi considerat în definirea lui X   2 variabilele aleatoare independente


X1 , X 2 ,..., X n  (m,  ) , atunci densitatea de repartiție a lui X ar fi depins și de  :
x
− n
−1
1
f ( x) = n e 2 2
 x 2 , pentru x  0 .
n
22  n    
2
Parametrii repartiției  : n (sau n și  );
2

Media: M  X  = n (sau n 2 ); Dispersia: D 2  X  = 2n (sau 2n 2 );


n

( )
n −
1
Funcția generatoare de momente: g X ( t ) = (1 − 2t )

,t (sau 1 − 2 t
2 2
2 ;
2
n

( )
n −
Funcția caracteristică:  X ( t ) = (1 − 2it )

(sau 1 − 2it
2 2
2 ).

6. Repartiția Student (opțional)

Dacă variabilele aleatoare Z și Y sunt independente, cu Z  (0,1) și Y   2 cu n grade de libertate,


atunci variabila aleatoare:
Z
X=
Y
n
este repartizată după legea lui Student cu n grade de libertate și are densitatea de repartiție:
 n +1 
 n +1
  x 2 − 2
f ( x) =
1  2  1+ , x
  și n
n  n   n 
 
2

Parametrul repartiției Student: n ;

8
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

Media: M  X  = 0 ;
n
Dispersia: D 2  X  = , pentru n  2 ;
n−2
Funcția generatoare de momente: nu este definită;
Funcția caracteristică: are o formă foarte complicată (poate fi exprimată cu ajutorul funcțiilor Bessel de a
doua speță). Nu se folosește în calcule uzuale.

7. Repartiția F (Fisher-Snedecor) (opțional)

Dacă variabilele aleatoare X 1 și X 2 sunt independente, cu X 1   2 cu n1 grade de libertate și X 2   2


cu n2 grade de libertate, atunci variabila aleatoare X definită prin:
n2  X 1
X=
n1  X 2
are repartiția Fisher-Snedecor centrată și are funcția de densitate:
n +n  n 1+ n 2
 1 2 
n1

 n1 2 2 
n1
−1  n  2
f ( x) =    x 2  1 + 1 x n1 ,n2  , x  0
 n2    n1     n2   n2 
   
2  2

Parametrii repartiției F: n1 și n2 ;
n2
Media: M  X  = , pentru n2  2 ;
n2 − 2
2n22 ( n1 + n2 − 2 )
Dispersia: D 2  X  = , pentru n2  4 ;
n1 ( n2 − 2 ) ( n2 − 4 )
2

Funcția generatoare de momente: nu este definită;


Funcția caracteristică: are o formă foarte complicată și nu se folosește în calcule uzuale.

9
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

CURS 8-9
VECTORI ALEATORI BIDIMENSIONALI
În multe aplicații practice ale teoriei probabilităților și statisticii matematice nu este suficient să măsurăm și
cuantificăm o singură mărime (reprezentată printr-o variabilă aleatoare) ci avem nevoie de două sau mai
multe astfel de mărimi (variabile aleatoare). În plus, aceste mărimi nu sunt, de cele mai multe ori,
independente – în sensul efectelor și variațiilor comune care compun fenomenul studiat. Pentru a putea
studia aceste fenomene în complexitatea lor, se folosesc vectori aleatori, compuși din două sau mai multe
variabile aleatoare.

În acest capitol ne vom ocupa de vectori aleatori bidimensionali (formați din două variabile aleatoare).
Acești vectori se notează U = ( X , Y ) , unde componentele sunt variabile aleatoare (discrete sau continue).
Legătura dintre aceste două variabile aleatoare este pusă în evidență prin funcția lor comună de repartiție.

În continuare vom renunța la precizarea ”bidimensionali” și ne vom referi simplu la ”vectori aleatori”,
subînțelegând că sunt bidimensionali. Toate rezultatele prezentate pentru vectori aleatori bidimensionali se
pot generaliza cu ușurință pentru cazul multidimensional.

FUNCȚIA DE REPARTIȚIE
Ca și variabila aleatoare simplă, vectorul aleator bidimensional este o funcţie reală care depinde de
rezultatul unui anumit experiment.

▪ Fie , K , P spaţiu de probabilitate. Funcţia U :  → 2


, U = ( X , Y ) se numeşte vector aleator
dacă:
pentru (  )( a1 , a2 ) 
2
 
,    X ( )  a1 , Y ( )  a2  K

Observaţie: Mulţimea valorilor vectorului aleator, U (  ) , este o submulţime a mulţimii


(U () 
2 2
).

Prin vectorii aleatori bidimensionali, unui fenomen supus unor circumstanţe aleatoare i se asociază
o pereche de numere reale, deci se stabileşte o corespondenţă între spaţiul de selecţie  , convenabil ales,
şi 2 .
În practică este dificil să găsim valorile acestor corespondenţe, dar este posibil să determinăm „cât
de des” sunt luate aceste perechi de valori (cu ce probabilitate). Astfel, prin analogie cu cazul variabilelor
aleatoare, putem defini funcţia de repartiţie a vectorului aleator U .
▪ Fie , K , P spaţiu de probabilitate şi U :  → 2 un vector aleator. Funcţia FU :
2
→  0,1
definită prin:
( )
FU ( x, y ) = P    X ( )  x , Y ( )  y , cu ( x, y )  2

se numeşte funcţia de repartiţie (sau de distribuţie) a vectorului aleator U .


Prescurtat, se scrie FU ( x, y ) = P ( X  x , Y  y ) .

Proprietăți:
1) Funcţie mărginită 0  FU ( x, y )  1 , deoarece:
FU ( x, − ) = FU ( −, y ) = 0 şi respectiv FU ( +, + ) = 1 ;
2) FX este continuă la stânga în fiecare argument;
1
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

3) Este nedescrescătoare în raport cu fiecare argument:


x1  x2  FU ( x1 , y )  FU ( x2 , y ) , y 
y1  y2  FU ( x, y1 )  FU ( x, y2 ) , x 
4) Pentru orice a  b și c  d , avem:
P ( a  X  b , c  Y  d ) = FU ( b, d ) − FU ( a, d ) − FU ( b, c ) + FU ( a, c )  0 .

Funcția de repartiție precum și funcția de probabilitate (respectiv densitatea de repartiție) vor fi


particularizate în continuare pentru cazul discret și continuu.

1. VECTORI ALEATORI – cazul discret

Dacă vectorul aleator ( X , Y ) ia un număr finit de valori, atunci se numește discret și se poate reprezenta
printr-un tablou de repartiție bidimensional de forma:

X \Y y1 y2 ........ yn
n
x1 p11 p12 p1n p1 =  p1 j
j =1
n
x2 p21 p22 p2n p2 =  p2 j
j =1
. . . . .
. . . . .
. . . . .
n
xm pm1 pm 2 ........ pm n pm =  pm j
j =1
m m m
q1 =  pi1 q2 =  pi 2 ......... qn =  pi n 1
i =1 i =1 i =1

▪ Elementele pij ale tabloului reprezintă probabilitatea realizării simultane a evenimentelor ( X = xi ) și


(Y = y j ) (numită repartiția comună), adică:
pi j = P ( X = xi )  (Y = y j )  = P  X = xi , Y = y j  , cu i = 1, m și j = 1, n .

Observații:
• Dacă variabilele aleatoare X și Y sunt independente, atunci pi j = pi  q j ;
• Din faptul că evenimentele ( X = x ,Y = y )
i j formează un sistem complet de evenimente, avem:
m n

 p
i =1 j =1
ij = 1.

1.1. Funcţia de repartiţie și funcția de probabilitate

Fie vectorul aleator discret U = ( X , Y ) , reprezentat prin tabloul său de repartiţie (similar cu cel prezentat
mai sus).
▪ Funcția de probabilitate (en. probability mass function) a vectorului aleator discret U este funcția
care atașează fiecărei perechi de valori a vectorului probabilitatea cu care această valoare este luată:

f ( xi , y j ) = pij = P ( X = xi , Y = y j ) , cu i = 1, m și j = 1, n

2
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

( )  f ( x , y ) = 1 .
m n
În mod evident, f xi , y j  0 pentru orice i = 1, m și j = 1, n și i j
i =1 j =1

▪ Funcția de repartiție a vectorului aleator discret U este:


j −1 i −1
FU ( x, y ) = P ( X  x , Y  y ) =  pk l ,
l =1 k =1

cu xi −1  x  xi și y j −1  y  y j , i = 1, m și j = 1, n .

1.2. Repartiții marginale și condiționate


▪ Repartițiile marginale (sau legile de probabilitate marginală, en. marginal distribution) sunt repartițiile
variabilelor aleatoare ce compun vectorul aleator U = ( X , Y ) :

 x x2 ... xm   xi 
X : 1  =   , cu i = 1, m și respectiv:
 p1 p2 ... pm   pi 
 y y2 ... yn   y j 
Y : 1  =   , cu j = 1, n
 q1 q2 ... qn   q j 
Probabilitățile pi = P ( X = xi ) și respectiv q j = P Y = y j ( ) se numesc probabilități marginale și se
calculează prin însumarea pe linii (respectiv pe coloane) a probabilităților pij = P X = xi , Y = y j ( ) din
tabloul de repartiție al vectorului discret U = ( X , Y ) .

Observație: Dacă se cunoaște tabloul de repartiție al unui vector aleator U = ( X , Y ) , se poate calcula
produsul variabilelor marginale, indiferent dacă acestea sunt independente sau nu:
 xi  y j 
X Y =  
 p i j i =1,m
j =1, n

Evident, odată cunoscută repartiția variabilei produs, calcularea mediei M  XY  nu mai comportă nicio
dificultate:
m n
M [ XY ] =  xi y j p i j
i =1 j =1

Cu ajutorul tabloului de repartiție al vectorului discret U = ( X , Y ) se pot defini repartițiile condiționate


ale variabilelor aleatoare X și Y :

▪ Variabila aleatoare X Y = y j   se numește repartiția condiționată a variabilei aleatoare X de către

 
evenimentul Y = y j și are tabloul:

 x1 x2 ... xi ... xm   xi 
   
X Y = y  j =  p1 j p2 j
...
pij
...
pmj  =  pij  , cu i = 1, m și j fixat
q qj qj q j   q j 
 j 
P ( X = xi , Y = y j )
( )
pij
Valorile = = P X = xi Y = y j sunt probabilitățile condiționate corespunzătoare,
qj P (Y = y j )
pentru i = 1, m și j fixat.

3
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

▪ Variabila aleatoare Y X = xi  se numește repartiția condiționată a variabilei aleatoare Y de către


evenimentul  X = xi  și are tabloul:
 y1 y2 ... yj ... yn   y j 
Y X = xi  =  pi1 pi 2
...
pij
...
  
pin  =  pij  , cu j = 1, n și i fixat
 p pi   pi 
 i pi pi

P (Y = y j , X = xi )
= P (Y = y j X = xi )
pij
Valorile = sunt probabilitățile condiționate
pi P ( X = xi )
corespunzătoare, pentru j = 1, n și i fixat.

1.3. Medii marginale și medii condiționate


▪ Mediile marginale sunt mediile variabilelor aleatoare care compun vectorul discret:
m n
M  X  =  xi  pi și respectiv M Y  =  y j  q j ;
i =1 j =1

▪ Mediile condiționate sunt mediile variabilelor aleatoare caracterizate de repartițiile condiționate,


 X Y = y  și Y X = x  :
j i

( )
m m p
M  X Y = y j  =  xi  P X = xi Y = y j =  xi  ij cu i = 1, m și j fixat și
i =1 i =1 q j

M Y X = xi  =  y j P (Y = y j X = xi ) =  y j 
n n pij
, cu j = 1, n și i fixat
j =1 j =1 pi

În plus se mai pot defini și mediile condiționate ”globale”, ca variabile aleatoare:


▪ Media lui X condiționată de Y este o variabilă aleatoare cu repartiția:

 M X Y = yj 
M  X Y  =   
 qj 
 
▪ Media lui Y condiționată de X este o variabilă aleatoare cu repartiția:

 M Y X = xi  
M Y X  =   

 pi 
Observații:

( )
1) M M Y X  = M Y  și respectiv M M  X Y  = M  X  ; ( )
2) M ( X  M Y X  ) = M  XY  .

4
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

2. VECTORI ALEATORI – cazul continuu

2.1. Funcţia de repartiţie și densitatea de repartiție

▪ Fie , K , P câmp de probabilitate. Considerăm o clasă de vectori aleatori U = ( X , Y ) pentru care
există o funcţie f :
2
→  0, + ) cu un număr finit de puncte de discontinuitate de prima speţă (deci
integrabilă), ce satisface relaţia:
def
P ( X  x , Y  y ) = FU ( x, y ) =  f ( u, v ) du dv
x y

− −

unde FU ( x, y ) este funcţia de repartiţie a vectorului aleator U . Atunci funcţia f se numeşte densitate
de repartiție a vectorului aleator U .
Proprietăţi ale densității de repartiție:

1) Funcţie pozitivă: f ( x, y )  0 , pentru  ( x, y ) 


2
;
 
2)   f ( x, y ) dx dy = 1 ;
− −

Observații:
2 F 2 F
• Dacă f este continuă, atunci există și avem: = f ( x, y ) .
xy xy

• Pentru orice a  b și c  d , avem: P ( a  X  b , c  Y  d ) =   f ( x, y ) dx dy .


b d

a c

• Pentru un domeniu oarecare D  2


avem: P ( ( X , Y )  D ) =  f ( x, y ) dx dy .
D

2.2. Densități și funcții de repartiție marginale și condiționate

Considerăm un vector aleator bidimensional U = ( X , Y ) , cu densitatea de repartiție f ( x, y )


(cunoscută).

▪ Densitățile de repartiție marginale sunt densitățile de repartiție ale variabilelor aleatoare componente
ale vectorului aleator și se calculează cu ajutorul densității de repartiție a acestuia:

 
fX ( x) =  f ( x, y ) dy și respectiv: fY ( y ) =  f ( x, y ) dx
− −

Dacă variabilele aleatoare X și Y sunt independente, atunci f ( x, y ) = f X ( x )  fY ( y ) .

Această relație este cunoscută și sub denumirea de ”Teorema multiplicării legilor de repartiție” și reprezintă
condiția necesară și suficientă de independență a două variabile aleatoare.
Acest criteriu de verificare a independenței se poate aplica doar dacă se cunoaște densitatea de repartiție
comună f ( x, y ) .

▪ Funcțiile de repartiție marginale sunt funcțiile de repartiție ale variabilelor aleatoare marginale X și
Y . Acestea se pot calcula în două moduri:

5
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

1. Folosind densitatea de repartiție comună f ( x, y ) :



FX ( x ) = P ( X  x ) = F ( x,  ) =  f ( u , v ) du dv și respectiv:
x

−  −

FY ( y ) = P (Y  y ) = F ( +, y ) =   f ( u, v ) du dv
y

−  −

2. Folosind densitățile de repartiție marginale (dacă au fost calculate în prealabil):


FX ( x ) =  f X ( u ) du și respectiv: FY ( y ) =  fY ( v ) dv
x y

− −

Dacă variabilele aleatoare X și Y sunt independente, atunci F ( x, y ) = FX ( x )  FY ( y ) .

▪ Densități de repartiție condiționate: sunt densitățile de repartiție ale variabilelor aleatoare condiționate
(X Y = y ) și (Y X = x ) :
f ( x, y ) f ( x, y )
f ( X Y = y) = f ( x y) = și respectiv: f (Y X = x ) = f ( y x ) = .
fY ( y ) fX ( x)

▪ Funcții de repartiție condiționate:


f ( u, y ) du f ( x, v ) dv
x y

F ( X Y = y) =
 
−

fY ( y )
(
și respectiv: F Y X = x = ) −

fX ( x)
▪ Cu ajutorul densităților de repartiție condiționate se pot calcula probabilități condiționate de forma:
P (Y  b X = x ) =  f ( y x ) dy și respectiv P ( X  a Y = y ) =  f ( x y ) dx
b a

− −

2.3. Medii marginale și medii condiționate


▪ Mediile marginale sunt mediile variabilelor aleatoare care compun vectorul discret:

 
M [ X ] =  x  f X ( x ) dx și respectiv M [Y ] =  y  fY ( y ) dy
− −

Observație: Cu ajutorul densității de repartiție a vectorului aleator, f ( x, y ) se poate calcula media


produsului variabilelor marginale X și Y :

M [ XY ] =  x y f ( x, y ) dxdy .
2

Dacă variabilele aleatoare X și Y sunt independente, atunci M [ XY ] = M [ X ]  M [Y ] .

▪ Mediile condiționate sunt mediile variabilelor aleatoare ( X Y = y ) și (Y X = x ) , care au densitățile


de repartiție f ( x y ) și respectiv f ( y x ) :

M  X Y = y  =  x  f ( x y ) dx = ”Media variabilei X condiționată de Y = y ” și


−

M Y X = x  =  y  f ( y x ) dy = ”Media variabilei Y condiționată de X = x ”


−

6
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

Observație: Mediile condiționate ale variabilelor aleatoare continue pot fi privite ca numere sau ca funcții!
1− y
De exemplu, să presupunem că am calculat M  X Y = y  = , pentru y   0,1 . Pentru orice valoare
2
concretă, fixată, a lui y în intervalul  0,1 , M  X Y = y  este un număr. Dacă y   0,1 , fără a se

specifica o valoare particulară pentru y , atunci M  X Y = y  este o funcție în y .

▪ Media lui X condiționată de Y este o variabilă aleatoare cu densitatea de repartiție fY ( y ) și care ia


valorile M  X Y = y  . Se notează M  X Y  .
▪ Media lui Y condiționată de X este o variabilă aleatoare cu densitatea de repartiție f X ( x ) și care ia
valorile M Y X = x  . Se notează M Y X  .

Mediile variabilelor aleatoare M  X Y  și M Y X  sunt:


M  M  X Y   =  M  X Y = y   fY ( y ) dy și respectiv:
−


M  M Y X   =  M Y X = x   f X ( x ) dx
−

Observație: Ca și în cazul discret, variabila aleatoare M Y X  (și în mod analog M  X Y  ) are
proprietățile:

( ) (
1) M M Y X  = M Y  și respectiv M M  X Y  = M  X  ; )
2) M ( X  M Y X  ) = M  XY  .

7
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

CURS 10
REGRESIE. ESTIMĂRI LINIARE ȘI NELINIARE
1. FUNCȚII DE REGRESIE
Termenul de ”regresie” provine din studiile efectuate, în domeniul eredității, de statisticianul englez
Francis Galton (1822 – 1911).
Regresia ne arată (în formă analitică) cum o variabilă este dependentă de altă variabilă (sau de alte
variabile) și nu implică cauzalitate – dacă există cauzalitate, aceasta trebuie justificată pe baza unei teorii
existente în domeniul de aplicabilitate (legi ale fizicii, biologiei, economiei, etc).
Analiza de regresie estimează valoarea medie a unei variabile, cunoscând valorile fixate ale altei
variabile (sau altor variabile).

Considerăm un vector aleator bidimensional U = ( X , Y ) , discret sau continuu, cu tabloul de repartiție


cunoscut, respectiv cu densitatea de repartiție f ( x, y ) cunoscută.

▪ Funcția de regresie a variabilei aleatoare X în raport cu Y este variabila aleatoare M  X Y  cu


mulțimea valorilor M  X Y = y  , pentru x  . Se notează RX ( y ) .

▪ Funcția de regresie a variabilei aleatoare Y în raport cu X este variabila aleatoare M Y X  cu


mulțimea valorilor M Y X = x  , pentru y  . Se notează RY ( x ) .

Observație: Se obișnuiește ca în loc de ”funcție de regresie” să se folosească termenul de ”regresie”.


Indiferent de termenul folosit, este obligatoriu să se specifice care variabilă este condiționată și care
condiționează. În statistică se folosesc termenii de ”variabilă dependentă” pentru variabila condiționată și
”variabilă independentă” pentru cea care condiționează. Termenul de ”independent” nu se referă la
independența variabilelor în sens probabilistic.

1.1. Regresie liniară

Considerăm un vector aleator bidimensional U = ( X , Y ) , discret sau continuu, cu tabloul de repartiție


cunoscut, respectiv cu densitatea de repartiție f ( x, y ) cunoscută.
Dacă funcția de regresie este funcție liniară:

RX ( y ) = M  X Y  = aY + b , cu a, b  sau

RY ( x ) = M Y X  = aX + b , cu a, b 

spunem că regresia este liniară (dependența dintre cele două variabile este liniară).

1.2. Dreapta de regresie


Fie X și Y două variabile aleatoare (discrete sau continue) cu dispersii nenule și fie
Cov  X , Y 
  X ,Y  = coeficientul de corelație al acestor variabile. Dacă corelația este ”puternică” (
 X  Y

1
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

modulul coeficientului de corelație este apropiat de 1), atunci valorile luate de vectorul aleator
U = ( X , Y ) tind să fie situate pe dreapta de ecuație:

cov  X , Y 
y − M Y  =
D2  X 
( x − M  X )
numită dreaptă de regresie a lui Y în raport cu X .

Observație: Similar se poate defini și dreapta de regresie a lui X în raport cu Y :


cov  X , Y 
x − M X  =
D 2 Y 
( y − M Y )
Alegerea uneia dintre ecuații se face în funcție de situația particulară de aplicare – în funcție de logica
teoretică a dependenței dintre mărimile reprezentate de cele două variabile aleatoare.

▪ Semnul coeficientului de corelație coincide cu semnul covarianței (dispersiile sunt întotdeauna pozitive)
și cu panta dreptei de regresie (ne vom referi în continuare la dreapta de regresie a lui Y în raport cu X ).
Astfel, avem:
• Dacă   X , Y   0 , la o creștere a valorilor variabilei X , valorile lui Y au tendința să crească;
• Dacă   X , Y   0 , la o creștere a valorilor variabilei X , valorile lui Y au tendința să scadă;
• Dacă   X , Y  = 0 , variabilele X și Y sunt necorelate.

Revenim asupra unui aspect foarte important, precizat în Cursul 5+6 (la proprietățile coeficientului de
corelație), și anume legătura dintre independența a două variabile aleatoare și valoarea coeficientului de
corelație:

• Dacă X şi Y sunt variabile aleatoare independente, atunci   X , Y  = 0 .


• Dacă   X , Y  = 0 , NU rezultă că X şi Y sunt variabile aleatoare independente.

2. ESTIMĂRI LINIARE ȘI NELINIARE


Estimările liniare și neliniare ale unei variabile aleatoare Y cu ajutorul altei variabile aleatoare X
presupun determinarea unei funcții de forma Y =  ( X ) care minimizează media pătratului erorii
 = Y − ( X ):
M (Y −  ( X ) )  = min
2

 
Această tehnică este cunoscută sub numele de ”Metoda celor mai mici pătrate”. În continuare sunt
prezentate câteva rezultate importante obținute pe baza acestei metode, fără a insista asupra metodei în
sine:
1. Estimări liniare și omogene, de forma: Y = aX , a 
2. Estimări liniare și neomogene, de forma: Y = aX + b , a, b 
3. Estimări neliniare, de forma Y =  ( X ) , unde  nu este funcție liniară.

Fie X și Y două variabile aleatoare (discrete sau continue) care au momente inițiale de ordin 1 și 2,
nenule. Alegem să estimăm variabila Y în funcție de variabila X .

▪ Variabilele aleatoare X și Y se numesc ortogonale dacă M  XY  = 0 .


2
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

▪ Numim proiecție ortogonală a lui Y pe X variabila aleatoare:


M  XY 
Y0 = X
M  X 2 

cu proprietatea că variabilele aleatoare X și Y − Y0 sunt ortogonale.

Pe baza metodei celor mai mici pătrate, putem afirma că:


1. Cea mai bună estimare liniară omogenă a lui Y în funcție de X este proiecția ortogonală a lui Y pe
X:
M  XY 
Y= X;
M  X 2 

▪ Cea mai bună estimare liniară neomogenă a lui Y în funcție de X are proprietatea că perechea
( X , Y ) este situată pe dreapta de regresie:
cov  X , Y 
Y − M Y  =
D2  X 
( X − M  X )
▪ Cea mai bună estimare neliniară a lui Y în funcție de X este media lui Y condiționată de X ,
M Y X  .

Observații:
• Termenul de ”cea mai bună estimare...” face referire la îndeplinirea condiției de minim din Metoda celor
mai mici pătrate.
• Similar se poate defini cea mai bună estimare liniară sau neliniară a lui X în funcție de Y . Alegerea
variabilei de estimat se face în funcție de situația particulară de aplicare – în funcție de logica teoretică a
dependenței dintre mărimile reprezentate de cele două variabile aleatoare.

3
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

CURS 11
OPERAȚII CU VARIABILE ALEATOARE CONTINUE
Cu ajutorul repartiției comune a două variabile aleatoare (componente ale unui vector aleator) se pot defini
densitățile de repartiție ale sumei, diferenței, produsului și câtului acestor variabile.

Transformări de variabile aleatoare


Pentru a defini operațiile cu variabile aleatoare continue, se folosesc transformări de variabile aleatoare.
Vom exemplifica această tehnică pentru cazul bidimensional, generalizarea la cazul multidimensional fiind
imediată.

Considerăm câmpul de probabilitate , K , P și două variabile aleatoare X și Y , definite pe acest


câmp. Considerăm o transformare inversabilă între două domenii , D  2
, deci o funcție vectorială de
două variabile  (1 ,  2 ) :

 x = 1 ( u, v )
 , ( x, y )  D și ( u , v )  
 y = 2 ( u , v )

Funcția  (1 ,  2 ) satisface condițiile:

1) 1 , 2 sunt funcții reale, de clasă C (  ) ;


1

1 1
u v
2) Jacobianul transformării J ( u , v ) =  0 pe  ;
2 2
u v
În aceste condiții, compunerea dintre ( X , Y ) și inversa transformării este tot o variabilă aleatoare notată
(U ,V ) . Dacă densitatea de repartiție comună a variabilelor X și Y este f X ,Y ( x, y ) , atunci, folosind
formula schimbării de variabilă în integrala dublă:

 f ( x, y ) dxdy =  f ( (u, v ) ,
D 
1 2 ( u, v ) )  J ( u, v ) du dv

obținem densitatea de repartiție comună a variabilelor aleatoare U și V :

fU ,V ( u , v ) = f X ,Y (1 ( u , v ) , 2 ( u , v ) )  J ( u , v )

Observație: Dacă avem o singură variabilă aleatoare X cu densitatea de repartiție f X ( x ) și avem nevoie
să facem o schimbare de variabilă (de exemplu, pentru a ușura anumite calcule) de forma:

x =  ( y ) , cu  de clasă C 1 ( D ) , D  ,

atunci densitatea de repartiție a inversei transformării (care este o variabilă aleatoare pe care o notăm cu
Y ) este:
d
f Y ( y ) = f X ( ( y ) ) 
dy
1
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

Exemplu: Se consideră variabila aleatoare X cu densitatea de repartiție f X ( x ) . Să se determine


densitatea de repartiție a variabilei aleatoare Y = aX + b , a  0 și a, b  .

y −b y −b
Rezolvare: Considerăm transformarea x = , adică  ( y ) = , care este o funcție de clasă
a a
d 1
C1 ( D ) , D  . Calculăm = și obținem:
dy a

d  y −b  1
f Y ( y ) = f X ( ( y ) )  = fX   ,
dy  a  a
deci variabila aleatoare Y = aX + b are densitatea de repartiție :

 y −b  1
fY ( y ) = f X   .
 a  a

Acest rezultat se poate folosi, fără demonstrație, în numeroase aplicații care presupun transformări liniare
ale unor variabile aleatoare.

Densitatea de repartiție a sumei, diferenței, produsului și câtului

Considerăm un vector aleator ( X , Y ) , cu densitatea de repartiție f ( x, y ) cunoscută.

▪ Densitatea de repartiție a sumei variabilelor aleatoare X și Y , notată Z = X + Y :


u = x + y  x=v
Considerăm transformarea  , care admite inversa  , cu jacobianul J = −1 . Atunci
 v=x y = u −v
f ( x, y ) = f ( v, u − v )  J = f ( v, u − v ) . Densitatea de repartiție a variabilei aleatoare Z = X + Y este
repartiția marginală în raport cu u = x + y , adică:


f Z (u ) =  f (v, u − v) dv
−

Dacă X și Y sunt v.a. indepedente, cu densitățile de repartiție f X ( x ) și respectiv fY ( y ) , atunci:



f Z (u ) =  f X ( v )  fY (u − v) dv (produs de convoluție).
−

▪ Densitatea de repartiție a diferenței variabilelor X și Y , notată T = X − Y


u = x − y  x=v
Considerăm transformarea  , care admite inversa  , cu jacobianul J = 1 . Atunci
 v=x y = v −u
f ( x, y ) = f ( v, v − u )  J = f ( v, v − u ) . Densitatea de repartiție a variabilei aleatoare T = X − Y este
repartiția marginală în raport cu u = x − y , adică:


fT (u ) =  f (v, v − u ) dv
−

2
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

Dacă X și Y sunt v.a. indepedente, cu densitățile de repartiție f X ( x ) și respectiv fY ( y ) , atunci:



fT (u ) =  f X ( v )  fY (v − u ) dv (produs de convoluție).
−

▪ Densitatea de repartiție a produsului variabilelor X și Y , notată Q = X  Y


 u
u = x  y x = 1
Considerăm transformarea  , care admite inversa  v , cu jacobianul J = . Atunci
 v= y  y = v v

u  u  1
f ( x, y ) = f  , v   J = f  , v   . Densitatea de repartiție a variabilei aleatoare Q = X  Y este
v  v  v
repartiția marginală în raport cu u = x  y , adică:

 u  1
fT (u ) =  f  , v  dv
−
v  v

Dacă X și Y sunt v.a. indepedente, cu densitățile de repartiție f X ( x ) și respectiv fY ( y ) , atunci:


 u 1
fT (u ) =  f X    fY ( v )  dv .
−
v v

X
▪ Densitatea de repartiție a câtului variabilelor X și Y , notată W =
Y
 x
u =  x = uv
Considerăm transformarea  y , care admite inversa  , cu jacobianul J = v . Atunci
v = y  y=v

X
f ( x, y ) = f ( uv, v )  v . Densitatea de repartiție a variabilei aleatoare W = este repartiția marginală în
Y
x
raport cu u = , adică:
y


fW (u ) =  f ( uv, v )  v dv
−

Dacă X și Y sunt v.a. indepedente, cu densitățile de repartiție f X ( x ) și respectiv fY ( y ) , atunci:



fW (u ) =  f X ( uv )  fY ( v )  v dv
−

 xi 
Observație: Fie X o variabilă aleatoare de tip discret, cu repartiția:  , i și Y o variabilă aleatoare
 pi 
de tip continuu, cu densitatea de probabilitate f ( x ) . Densitatea de probabilitate a sumei Z = X + Y
este:

f Z ( x ) =  pi  fY ( x − xi )
i =0

3
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

CURS 12
ȘIRURI DE V.A. TEOREMA LIMITĂ CENTRALĂ. LEGEA NUMERELOR MARI

1. ȘIRURI DE VARIABILE ALEATOARE. INEGALITATEA LUI CEBÂȘEV

Fie ( , K , P ) un câmp de probabilitate, ( X n )n * :  → un șir de variabile aleatoare și X :  → o


variabilă aleatoare. Deoarece variabilele aleatoare sunt funcții definite pe spațiul de selecție (cu proprietăți
suplimentare), putem vorbi despre convergența punctuală a unui șir de variabile aleatoare ( X n ) n * către
variabila aleatoare X , înțelegând prin aceasta că șirul numeric de variabile aleatoare  X ( )
n n * , cu
  , converge către X ( ) .

1.1. Convergența în probabilitate


Șirul ( X n )n * ⎯⎯⎯
prob
→ X dacă pentru   0 , lim P ( X n − X   ) = 1 .
n →

Formă echivalentă: lim P X n − X   = 0


n →
( )
Observație:
Dacă ( X n ) ⎯⎯⎯ → X și (Yn ) ⎯⎯⎯ → Y , atunci : ( aX n + bYn ) ⎯⎯⎯ → aX + bY , unde a, b 
prob prob prob
ct.

1.2. Convergența în repartiție


Convergența în repartiție mai este numită și convergența slabă (en. weak).
Șirul ( X n )n * ⎯⎯→ X dacă în orice punct x de continuitate al funcției de repartiție FX avem:
rep

lim FX n ( x ) = FX ( x )
n →

1.3. Convergența aproape sigură


Convergența aproape sigură mai este numită și convergența tare (en. strong).
Șirul ( X n )n * ⎯⎯→ X dacă mulțimea evenimentelor în care X n ( )
a.s.
  n * converge punctual la

(
X ( ) formează un eveniment de probabilitate 1: P  lim X n ( ) = X ( ) = 1 .
n →
)
1.4. Convergența în medie

( X n )n
⎯⎯ → X (converge în medie de ordinul r ) dacă există momente absolute M  X n  și
r r
Șirul *
 
M  X  și avem: lim M  X n − X  = 0 .
r r
  n →  
Observație: Dacă r = 2 , convergența în medie de ordinul 2 se numește convergență în medie pătratică.

Legătura dintre tipurile de convergență poate fi schematizată astfel:

( X n )n ⎯⎯→
a.s.
X
 ( X n )n ⎯⎯⎯ →X  ( X n )n ⎯⎯→
* prob rep
X
( X n )n * ⎯⎯ →X
r * *

Observație: Conceptele de convergență aproape sigură și convergență în medie de ordin r nu pot fi


comparate între ele, deoarece niciunul nu-l implică pe celălalt.
1
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

INEGALITATEA LUI CEBÂȘEV


Fiind dată o variabilă aleatoare, valorile ei pot avea un grad diferit de grupare / împrăștiere în jurul mediei.
Inegalitatea lui Cebâșev dă o margine inferioară pentru probabilitatea ca abaterea absolută de la medie a
unei variabile aleatoare cu dispersia cunoscută să fie mai mică decât un prag dat  (evident, dacă media
există).

Enunț: Fie X o variabilă aleatoare care admite medie şi dispersie finite (notate m și  2 ). Atunci, pentru
orice   0 , are loc inegalitatea:
2
P ( )
 X − m     1− 2
Observaţii:
1. Inegalitatea lui Cebâșev se poate exprima sub forma:”Abaterea de la medie este puțin probabilă”.
2. Există şi o formă „complementară” pentru inegalitatea lui Cebâşev, şi anume:
2
P ( )
 X − m    2
.

TEOREMA „ CELOR 3 SIGMA”


Ca o consecință directă a inegalității lui Cebâșev, pentru variabile aleatoare care au medie și dispersie finită,
se poate formula următorul rezultat, cunoscut sub numele de ”Teorema celor 3 sigma”.
8
Enunț: Cu o probabilitate cuprinsă între şi 1 , orice variabilă aleatoare ia valori cuprinse între
9
( m − 3 , m + 3 ) (unde m este media valorilor variabilei şi  este abaterea medie pătratică):
8
P ( m − 3  X  m + 3 ) 
9

2. TEOREMA LIMITĂ CENTRALĂ


Teorema Limită Centrală este un rezultat particular dintr-o problematică mai largă, și anume a studiului
repartiției limită a sumelor de variabile aleatoare independente.
Acest rezultat teoretic este foarte important pentru fundamentarea aplicațiilor din statistica
matematică.
Problema limită centrală constă în stabilirea condițiilor în care funcția de repartiție a unui șir de variabile
aleatoare independente, cu dispersii finite și normate (cu media 0 și dispersia 1) converge către funcția de
repartiție normală standard (funcția lui Laplace). Așadar, este vorba despre o convergență în repartiție.

Enunț (Liapunov): Fie ( X n ) n * un șir de variabile aleatoare independente, identic repartizate, cu media m
și dispersia  2 (finită). Atunci, pentru x  :
 n

  Xk − nm 
lim P  k =1  x  =  ( x)
n →
  n 
 
 
n

X k − nm
(Șirul Yn = k =1
converge în repartiție către o variabilă normală standard, unde
 n
t2
1 x −
 ( x) =
2  −
e 2
dt este funcția lui Laplace).

2
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

Observație: Dacă șirul ( X n )n converge în repartiție către X rezultă, din definiția acestui tip de
*

convergență, că P ( X n  x ) → P ( X  x ) , în orice punct de continuitate al funcției de repartiție FX ( x ) .


De aici rezultă că pentru a  b puncte de continuitate pentru FX ( x ) , avem:
P ( a  X n  b ) → P ( a  X  b ) . Astfel, Teorema Limită Centrală se poate scrie, pentru a  b :

 n

  Xk − nm 
lim P  a  k =1  b  =  (b ) −  ( a )
n →
  n 
 
 
sau, echivalent:
 n
  b − nm   a − nm 
lim P  a   X k  b  =    −  
n→
 k =1    n    n 
și se folosesc valorile tabelate ale funcției lui Laplace (repartiția normală standard, Tabelul A).

Teorema Moivre-Laplace
Reprezintă varianta particulară a Teoremei Limită Centrală, pentru un șir de variabile aleatoare
 1 0
independente, repartizate Bernoulli: X =   , cu p + q = 1, media m = p și dispersia  = pq . În
2

 p q
acest caz, forma Teoremei Limită Centrală este:
 n

 X k − n p 
lim P  k =1
 x  =  ( x)
n →  npq 
 
 
și reluând argumentația din observația de mai sus, avem formele echivalente:
 n

  Xk − n p 
lim P  a  k =1  b  =  (b ) −  ( a )
n →
 npq 
 
 
 n
  b − n p   a − n p 
și lim P  a   X k  b  =    − 
 npq 
.
n→
   npq 
k =1    

3. LEGEA NUMERELOR MARI (forma slabă)


Legătura dintre frecvența de apariție a unor evenimente și probabilitate, în contextul repetării unui
experiment de un număr mare de ori, constituie elementul de bază al aplicațiilor practice ale teoriei
probabilităților și statisticii inferențiale. Diversele rezultate privind această problemă fundamentală sunt
cunoscute sub numele de variante ale Legii Numerelor Mari (en. Law of Large Numbers).
Aceste rezultate stabilesc diverse condiții privind existența unui șir de numere reale ( an ) n * și
convergența unui șir de variabile aleatoare Yn = n ( X n )n * către ( an ) n * . În mod frecvent, se consideră
1 n
n ( X n )n = *  Xk .
n k =1

▪ Dacă există ( an ) n * șir de numere reale astfel încât pentru   0 să avem: P ( Yn − an   ) = 1

3
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

X
1 n 1
sau, pentru  n ( X n )n * =  Xk : k − an ⎯⎯⎯
prob.
n→
→ 0 , spunem că șirul ( X n ) n * satisface legea
n k =1 n k =1

slabă a numerelor mari cu funcțiile ( n ) n * .

▪ Dacă convergența are loc aproape sigur (a.s.), spunem că șirul ( X n )n * satisface legea tare a
numerelor mari.
În continuare vom prezenta câteva rezultate teoretice în varianta slabă.
Forma generală:
Fie ( X n )n * un șir de variabile aleatoare independente, identic repartizate (au aceeași medie m și
aceeași dispersie  2 , finite). Atunci, pentru   0 și   0 , există un număr natural n0 (  ,  ) astfel
încât pentru n  n0 avem:
1 n  1 n 
P   X k − m      sau, echivalent: P   X k − m     1 −  .
 n k =0   n k =0 

Observație: Acest rezultat fundamentează teoretic procesul uzual de aproximare a mediei caracteristicii
studiate a unei populații statistice prin media aritmetică a valorilor observate. Într-adevăr, dacă
X1 , X 2 ,..., X n sunt privite ca valori potențiale ale unei variabile aleatoare X obținute printr-un șir de
probe independente, atunci teorema arată că media aritmetică a acestora converge în probabilitate la
media teoretică.

Legea slabă a numerelor mari în forma Cebâșev


Fie ( X n )n * un șir de variabile aleatoare independente, cu dispersii finite, uniform mărginite (există o
constantă reală c astfel încât  ( X k )  c pentru k = 1, n ). Atunci, pentru   0 avem:
2

1 n 1 n 
lim P   X k −  M  X k     = 1
n →
 n k =1 n k =1 
Sau, într-o formulare echivalentă:
1 n 1 n 
lim P   X k −  M  X k     = 0
n →
 n k =1 n k =1 

Legea slabă a numerelor mari în forma Bernoulli


Fie k numărul de apariții ale evenimentului A în n probe independente (ceea ce este echivalent cu a
k
spune că frecvența relativă de apariție a evenimentului A este ) și P ( A ) = p . Atunci, pentru   0
n
avem:
k 
lim P  − p    = 1
n →
n 
k 
sau, echivalent: lim P  − p  =0.
n →
n 

Observație: Această formă a Legii Numerelor Mari constituie justificarea teoretică a definiției în sens
statisitic a probabilității (cu ajutorul frecvențelor relative). Enunțul poate fi reținut sub forma: ”frecvența
relativă tinde în probabilitate la probabilitatea teoretică”.

4
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca

▪ În legea slabă a numerelor mari în forma Bernoulli avem n variabile aleatoare identic repartizate
 1 0
Bernoulli: X =  , cu p + q = 1. Media variabilei X este M  X  = p iar dispersia este
 p q
D 2  X  = pq . Se poate demonstra cu ușurință că pq 
1
, deci avem dispersii uniform mărginite și deci
4
Teorema lui Bernoulli este o particularizare a legii slabe a numerelor mari în forma Cebâșev.

▪ Legea slabă a numerelor mari se mai poate folosi și sub forma:

lim P ( f n − p   )  1 −
pq
n → n 2
k
unde f n = este frecvența relativă de apariție a evenimentului ”de interes”, codificat cu 1 în variabila
n
aleatoare Bernoulli (sau notat A , cu P ( A ) = p ).

▪ În sensul enunțului general al Legii Numerelor Mari, pentru variabile Bernoulli avem:
k  1 1
P  − p      , și deoarece  2 = pq  , alegem n0 (  ,  )  .
n  4 4 2
Cu ajutorul acestei relații putem determina volumul unei selecții bernoulliene care să permită aplicarea Legii
Numerelor Mari .

S-ar putea să vă placă și