Documente Academic
Documente Profesional
Documente Cultură
Purnichescu-Purtan Raluca
CURS 1 - 2
1. EVENIMENTE, SPAȚIU DE SELECȚIE
▪ Experienţă aleatoare: o experienţă al cărei rezultat nu poate fi anticipat cu certitudine, el depinzând de
o serie de factori întâmplători (aleatori).
Exemple: aruncarea unui zar, tragerile la ţintă, durata de funcţionare a unei maşini, etc.
▪ Eveniment aleator: orice rezultat potențial al unei experiențe aleatoare, a cărui realizare poate fi
confirmată sau infirmată de o probă. Legat de o anumită experiență, un eveniment poate fi precizat printr-
o propoziție logică: după ce avem proba, putem afirma că evenimentul a avut loc sau nu printr-o propoziție
adevărată sau falsă.
▪ Eveniment sigur: evenimentul care se realizează la orice probă (toate cazurile posibile ale experienţei
sunt cazuri favorabile ale acestui eveniment).
▪ Evenimente elementare / compuse: evenimentele care se pot realiza la o probă și numai una se
numesc evenimente elementare. Evenimentul elementar are un singur caz favorabil. Evenimentele care nu
sunt elementare se numesc compuse.
▪ Spaţiu de selecţie: mulţimea tuturor rezultatelor (cazurilor) posibile ale unei experienţe aleatoare. Fie
o mulțime nevidă oarecare. Dacă mulțimii i se poate atașa o experiență aleatoare, convenabil aleasă,
astfel încât fiecărei submulțimi a lui să îi corespundă o situație reală în experiența considerată, atunci
mulțimea se numește spațiu de selecție (sau mulțime de stări).
▪ Submulțimile lui se numesc evenimente;
▪ Elementele lui se numesc evenimente elementare;
▪ Mulțimea reprezintă evenimentul sigur;
▪ Mulțimea vidă reprezintă evenimentul imposibil.
Mulţimea tuturor evenimentelor legate de o experienţă cu un număr finit de cazuri posibile se identifică cu
familia ( ) a tuturor submulţimilor mulţimii (mulţimea părţilor lui ).
2. OPERAȚII CU EVENIMENTE
Operațiile cu evenimente se identifică cu operațiile cu mulțimi.
Considerăm două evenimente A şi B ale spaţiului de selecţie .
▪ Eveniment implicat de un alt eveniment: Fie A şi B două evenimente ale spaţiului de selecţie .
Spunem că evenimentul A implică evenimentul B și scriem A B dacă orice caz care realizează A ,
realizează B (mulţimea cazurilor favorabile lui A este inclusă în mulţimea cazurilor favorabile lui B ).
Evenimentul imposibil implică orice eveniment ( A , pentru orice eveniment A ).
▪ Reuniunea A B („ A sau B ”) este evenimentul a cărui realizare înseamnă realizarea a cel puţin
unuia dintre evenimentele considerate.
Definiţia se poate extinde şi la un număr mai mare de evenimente.
1
2021 Curs MS seria A+C, ETTI Lect.dr. Purnichescu-Purtan Raluca
▪ Evenimentul contrar A sau CA („non A ”) este evenimentul a cărui realizare constă în nerealizarea
evenimentului A (mulţimea cazurilor favorabile lui „non A ” este formată din toate cazurile nefavorabile
lui A ). Oricărui eveniment din spațiul de selecție îi corespunde un eveniment contrar.
▪ Diferența A \ B este evenimentul care se realizează prin probe ale lui A şi ale lui B (cazurile
favorabile lui A care nu sunt cazuri favorabile şi lui B ).
▪ Sistem complet de evenimente: O familie cel mult numărabilă de evenimente A i iI se numește
2
2021 Curs MS seria A+C, ETTI Lect.dr. Purnichescu-Purtan Raluca
Observaţie: Într-un câmp finit de evenimente, mulţimea tuturor evenimentelor elementare ataşate unei
experienţe formează un sistem complet de evenimente.
Exemplu: Experienței aruncării unui zar i se asociază un câmp finit de evenimente: Evenimentele Ai =”se
obține fața i ”, i = 1, 6 sunt evenimentele elementare ale experienței și pot fi puse în corespondență
bijectivă cu elementele mulțimii = 1, 2,3, 4,5, 6 . Orice submulțime a mulțimii poate fi privită ca un
eveniment (evident, se identifică cu evenimentul sigur iar cu evenimentul imposibil). Astfel,
experienței aruncării unui zar i se poate atașa mulțimea și mulțimea părților sale ( ) .
4. CÂMP DE PROBABILITATE
Pentru a putea cuantifica șansele de realizare a unui eveniment aleator se folosește noțiunea de
probabilitate.
Presupunem că pentru o anumită experiență aleatoare am definit spațiul de selecție . Atunci
fiecărui eveniment A îi putem asocia un număr, P ( A ) , numit probabilitatea realizării lui A (sau simplu,
probabilitatea lui A ), fiind o măsură precisă a șanselor ca A să se realizeze.
Riguros, probabilitatea poate fi definită în mai multe moduri: clasic (apare pentru prima oară în
lucrările lui P.S. Laplace), statistic (cu ajutorul frecvențelor relative), geometric, bayesian (datorată lui T.
Bayes) sau axiomatic (Kolmogorov).
În continuare vom prezenta pe scurt trei dintre aceste moduri de definire – cele pe care le vom
folosi pe parcursul lucrării: definiția clasică, statistică și axiomatică.
3
2021 Curs MS seria A+C, ETTI Lect.dr. Purnichescu-Purtan Raluca
4. pentru A, B K cu A B = avem: P ( A B ) = P ( A ) + P ( B )
dacă A B avem: P ( A B ) = P ( A ) + P ( B ) − P ( A B )
5. pentru A, B K cu B A avem: P ( A \ B ) = P ( A ) − P ( B )
6. A K P ( A ) + P A = 1 ( )
7. pentru A, B K cu B A avem: P ( B ) P ( A )
n n n
P Ai = P ( Ai ) − P ( Ai Aj ) + P ( Ai Aj Ak ) − .... + ( −1) P Ai
n n
n −1
i =1 i =1 i , j =1,i j i , j , k =1,i j k i =1
4
2021 Curs MS seria A+C, ETTI Lect.dr. Purnichescu-Purtan Raluca
5. INDEPENDENȚĂ ȘI CONDIȚIONARE
Odată introdusă noţiunea de probabilitate, putem defini două noţiuni importante în teoria
probabilităţilor şi anume noţiunea de probabilitate condiţionată şi de independenţă în probabilitate a
evenimentelor.
În multe situații practice este necesară calcularea probabilității unui eveniment A legat de un
eveniment B , în ipoteza că evenimentul B s-a realizat. Pentru aceasta restrângem mulţimea
evenimentelor care realizează evenimentul A la cele care realizează şi evenimentul B . Pentru ca această
restricţie să aibă sens este necesar ca evenimentul B să fie de probabilitate nenulă.
P ( A B ) = P ( A ) PA ( B ) (sau echivalent P ( A B ) = P ( B ) PB ( A ) )
P ( A B ) = P ( A) P ( B )
• P ( B A) = P ( B ) • ( )
P B A = P ( B)
P ( A B ) = P ( A)
P ( A B ) = P ( A)
•
•
5
2021 Curs MS seria A+C, ETTI Lect.dr. Purnichescu-Purtan Raluca
Generalizare:
Spunem că evenimentele A1 , A2 ,...., An sunt independente dacă probabilitatea oricărei intersecţii finite de
evenimente este egală cu produsul probabilităţilor evenimentelor intersectate, adică:
( ) ( ) ( )
P Ai 1 Ai 2 ...... Ai k = P Ai 1 P Ai 2 .... P Ai k ( )
oricare ar fi 1 i1 i2 .... ik n .
Observație: Dacă mai multe evenimente sunt independente două câte două, NU rezultă că sunt
independente în totalitatea lor, așa cum se poate vedea din exemplul următor:
Tetraedrul lui S.N.Bernstein
Considerăm un tetraedru omogen cu feţele colorate astfel: una în alb, una în negru, una în roşu şi a patra în
toate cele trei culori. Aruncând tetraedrul pe o masă el se asează pe una din feţe; ne interesează
probabilitatea apariţei fiecărei culori şi independenţa evenimentelor corespunzătoare.
P ( B ) = P ( Ai ) PAi ( B )
n
i =1
( ) ( ) ( )
adică: P ( B ) = P A1 PA1 ( B ) + P A2 PA2 ( B ) + .... + P An PAn ( B )
P ( B)
P ( Aj ) PA ( B )
n
j
j =1
6
2021 Curs MS seria A si C, ETTI Lect.dr. Purnichescu-Purtan Raluca
CURS 3
SCHEME CLASICE DE PROBABILITATE
(unde q = 1 − p ).
Model ”urne-bile”:
- O urnă U (bile albe și negre)
- Se fac n extrageri, cu revenire (repunerea în urnă a bilei, după fiecare extragere).
- Probabilitatea de a extrage o bilă albă este p (și probabilitatea de a extrage una neagră este
q = 1 − p );
Probabilitatea de a extrage exact k bile albe din n extrageri este egală cu coeficientul lui x k din
polinomul: ( px + q ) , adică este egală cu Cnk p k q n − k .
n
Observație: Putem considera, pentru acest model ”bile-urne”, n urne identice U1 ,U 2 ,.....U n din
care se face câte o extragere (urnele conțin acelaşi număr de bile albe şi respectiv acelaşi număr de
bile negre) sau, echivalent, o singură urnă U din care se fac n extrageri, cu revenire (repunerea în
urnă a bilei, după fiecare extragere).
1
2021 Curs MS seria A si C, ETTI Lect.dr. Purnichescu-Purtan Raluca
Observații:
1) Evident, evenimentele Ai din sistemul complet de evenimente reprezintă extragerea bilei de
culoare ci .
2) Putem considera, pentru acest model ”bile-urne”, o singură urnă U din care se fac n extrageri,
cu revenire (repunerea în urnă a bilei, după fiecare extragere) sau, echivalent, n urne identice
U1 ,U 2 ,.....U n din care se face câte o extragere.
2
2021 Curs MS seria A si C, ETTI Lect.dr. Purnichescu-Purtan Raluca
5. SCHEMA HIPERGEOMETRICĂ
Model ”urne-bile”:
- O urnă U conţine a bile albe şi b bile negre;
- Se fac n extrageri ( n a + b ), fără a se pune bila extrasă înapoi în urnă;
C k C n−k
Probabilitatea ca din cele n bile extrase, k să fie albe ( k a ) este: P = a n b
Ca +b
3
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
CURS 4
VARIABILE ALEATOARE
1. DEFINIŢIE ŞI CLASIFICARE
Intuitiv, o variabilă aleatoare este o mărime care în urma realizării unei experienţe poate lua o valoare
dintr-o mulţime bine definită (mulţimea valorilor posibile).
Variabila aleatoare este o funcţie reală care depinde de rezultatul unui anumit experiment:
▪ Fie , K , P spaţiu de probabilitate. Funcţia X : → se numeşte variabilă aleatoare dacă:
pentru ( ) a
, X ( ) a K
Observaţie: Mulţimea valorilor variabilei aleatoare, X ( ) , este o submulţime a mulţimii numerelor reale
( X () ), adică variabila aleatoare nu este obligatoriu o funcţie surjectivă.
Prin variabilele aleatoare, unui fenomen supus unor circumstanţe aleatoare i se asociază un număr
real, deci se stabileşte o corespondenţă între spaţiul de selecţie , convenabil ales, şi .
În practică este dificil să găsim valorile acestor corespondenţe, dar este posibil să determinăm „cât
de des” sunt luate aceste valori (cu ce probabilitate). Astfel, putem defini funcţia de repartiţie a variabilei
aleatoare X .
1
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
Definim funcţia X pe acest sistem complet de evenimente şi o reprezentăm prin tabelul de asociere
(perechi ordonate) numit tabloul de repartiţie al variabilei aleatoare X :
x1 x2 .... xn n
X = , cu pi 0 şi pi = 1
p1 p2 .... pn i =1
unde numerele xi se numesc valorile variabilei aleatoare iar pi sunt probabilităţile cu care variabila
aleatoare ia aceste valori:
(
pi = P ( Ai ) = P X = xi = P X ( ) = xi )
Convenţii:
▪ În tabloul de repartiţie se trec valorile distincte ale variabilei aleatoare;
▪ În tabloul de repartiţie NU se trec valorile luate cu probabilitatea 0.
▪ Funcția de probabilitate (en. probability mass function) a unei variabile aleatoare discrete simple este
funcția care atașează fiecărei valori a variabilei probabilitatea cu care această valoare este luată:
f ( xi ) = pi = P ( X = xi ) , i = 1, n
▪ Funcția de repartiție a unei variabile aleatoare discrete simple este funcția cumulativă:
0, x x1
p1, x1 x x2
p1 + p2, x2 x x3
FX ( x ) = P ( X x ) =
p1 + p2 + ... + pi −1 , xi −1 x xi
...........................
1, x xn
Proprietăţi:
1) Funcţie mărginită (valoarea minimă este 0, cea maximă 1).
2) FX este o funcţie „treaptă”, continuă la dreapta (şi discontinuă la stânga) în punctele xi , cu salturi
egale cu pi în aceste puncte.
3) Este nedescrescătoare ( FX ( x1 ) FX ( x2 ) dacă x1 x2 )
Observaţie: În definirea funcţiei de distribuţie se pot folosi şi inegalităţile xi −1 x xi , ceea ce este corect
dar duce la modificarea tipului de continuitate (în acest caz, FX este continuă la stânga şi discontinuă la
dreapta).
2
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
x1 x2 .... xn y1 y2 .... ym n m
X = , Y = cu pi , q j 0 şi pi = q j = 1 .
p1 p2 .... pn q1 q2 .... qm i =1 j =1
P ( X = xi ), (Y = y j ) = P ( X = xi ) (Y = y j ) = pi q j
aleatoare simple):
a + xi a xi
1. a + X = și a X = , cu a constantă;
pi i =1, n pi i =1, n
xi + y j xi y j xik
2. X + Y = , X Y = și X k
= ,
p i j i =1,n p i j i =1,n p i i =1,n
j =1, m j =1, m
Observații:
▪ Dacă variabilele aleatoare X și Y sunt independente, atunci pi j = pi q j
▪ Dacă variabilele aleatoare X și Y NU sunt independente, atunci pi j se poate determina doar din
tabloul de repartiție al unui vector aleator bidimensional, discret.
▪ Suma și produsul se pot extinde și pentru trei sau mai multe variabile aleatoare.
3
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
Reamintim că funcţia de repartiție a unei variabilei aleatoare X este o funcție FX : → 0,1 , definită
prin: FX ( x ) = P ( X x ) , cu x .
Dacă X este o variabilă aleatoare continuă, funcția ei de repartiție are următoarele proprietăți:
▪ Fie , K , P câmp de probabilitate. Considerăm o clasă de variabile aleatoare X pentru care există o
funcţie f : → 0, + ) cu un număr finit de puncte de discontinuitate de prima speţă (deci integrabilă),
ce satisface relaţia:
def
P ( X x) = F ( x) = f ( t ) dt
x
−
unde F ( x ) este funcţia de repartiţie a variabilei X . Atunci funcţia f se numeşte densitate de repartiție
a variabilei aleatoare X .
x
X =
f ( x)
Observaţie: Dacă f este continuă în x , atunci F este derivabilă în x şi avem: F ( x ) = f ( x ) .
şi F continuă, atunci P ( a X b ) = f ( x ) dx = F ( b ) − F ( a ) .
b
3) Dacă a, b
a
P ( a X b ) = P ( a X b ) = P ( a X b ) = P ( a X b ) = f ( x ) dx = F ( b ) − F ( a )
b
▪
a
4
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
CURS 5+6
CARACTERISTICI NUMERICE ALE VARIABILELOR ALEATOARE
În cele ce urmează, pentru cazul discret vom considera o variabilă aleatoare de forma:
x
x2 .... xn n
X = 1 , cu pi 0 şi pi = 1
p1
p2 .... pn i =1
x
iar pentru cazul continuu vom considera o variabilă aleatoare X = , cu x .
f ( x)
1. MEDIA
Pentru o variabilă aleatoare, media (en. mean, expected value) este o măsură a tendinței centrale a
valorilor sale.
▪ Dacă X este variabilă aleatoare discretă simplă, cu funcția de probabilitate f ( xi ) = pi , media ei
este numărul:
n
M X = x1 p1 + x2 p2 + ..... + xn pn = xi pi
i =1
Observație: Dacă g ( x ) este o funcție și X este o variabilă aleatoare, atunci media variabilei aleatoare
n
g(X ) este M g ( X ) = g ( xi ) pi (pentru cazul discret) și respectiv
i =1
+
M g ( X ) = g ( x ) f ( x ) dx (pentru cazul continuu).
−
Observaţie: Pentru cazul discret cu o infinitate de valori numărabile, media variabilei aleatoare se
definește prin seria x p
i =1
i i care trebuie să fie convergentă. Dacă seria este divergentă, variabila aleatoare
NU are medie. Similar, dacă integrala improprie care definește media unei variabile continue nu este
convergentă, atunci respectiva variabilă NU are medie.
4) valoarea medie a unei sume finite de variabile aleatoare este egală cu suma valorilor medii ale
variabilelor aleatoare respective:
M X + Y + Z + ... = M X + M Y + M Z + ....
5) valoarea medie a unui produs de variabile aleatoare independente este egală cu produsul mediilor
variabilelor considerate:
M X Y Z ... = M X M Y M Z ....
Dacă variabilele aleatoare NU sunt independente, se calculează variabila produs şi apoi media ei, cu
definiţia.
mk = M X k = xik pi
i 1
Observaţii:
▪ Momentul iniţial de ordinul 0 al unei variabile aleatoare X este:
m0 = M X 0 = M 1 = 1
▪ Momentul iniţial de ordinul 1 al unei variabile aleatoare X este chiar media variabilei:
m1 = M X 1 = M X .
k ( X ) = M ( ( X − M X ) ) = ( x − M X ) p
k
i 1
i
k
i
k ( X ) = M ( ( X − M X ) ) = k
−
( x − m)
k
f ( x ) dx
2
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
4. DISPERSIA
Pentru o variabilă aleatoare care are medie finită, dispersia (sau varianța, en. variance) este un indicator
numeric al gradului de împrăștiere (dispersare) a valorilor variabilei aleatoare în jurul mediei .
D 2 X = M ( X − m ) , unde m = M X
2
▪ Dacă X este variabilă aleatoare discretă simplă, cu funcția de probabilitate f ( xi ) = pi , dispersia
ei este:
n
D 2 X = ( xi − m ) pi
2
i =1
D 2 X = M X 2 − ( M X )
2
4) dispersia unei sume finite de variabile aleatoare independente (în totalitate sau două câte două) este
egală cu suma dispersiilor:
D 2 X + Y + Z + ... = D 2 X + D 2 Y + D 2 Z + ...
5. ABATEREA STANDARD
În practică nu se foloseşte dispersia (care, din punct de vedere dimensional reprezintă pătratul variabilei în
cauză) ci abaterea standard (en. standard deviation): = D 2 X , care are avantajul exprimării prin
aceleaşi unităţi de măsură ca şi valorile variabilei aleatoare X .
Proprietăţi ale abaterii standard (rezultă din proprietăţile dispersiei):
a) c = 0 , unde c ;
b) a + X = X ;
3
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
c) aX = a X .
6. COVARIANȚA
Covarianța este un indicator numeric al legăturii dintre 2 variabile aleatoare și reprezintă momentul
centrat mixt al celor două variabile.
Acest indicator se poate calcula dacă momentele inițiale de ordinul 1 și 2 ale celor două variabile aleatoare
există și sunt finite.
Covarianța variabilelor aleatoare X şi Y se definește prin:
Cov X , Y = M ( X − M X ) (Y − M Y )
2) Cov X , X = D X ;
2
7. COEFICIENTUL DE CORELAȚIE
Coeficientul de corelație al variabilelor aleatoare X şi Y (cu abaterile standard X 0 şi Y 0 ) este o
măsură a dependenței liniare dintre cele două variabile și este reprezentat de numărul:
Cov X , Y
X ,Y = .
X Y
Valoarea pozitivă a coeficientului de corelație indică faptul că valorile celor două variabile aleatoare cresc
sau descresc împreună, iar o valoare negativă a coeficientului de corelație indică faptul că valorile uneia
dintre variabile cresc în timp ce valorile celeilalte descresc.
3) Dacă pentru două constante reale a şi b , variabila aleatoare Y se poate scrie: Y = aX + b , atunci:
1, a 0
X ,Y = (a se reține acest aspect pentru cursul în care se va stabili legătura dintre
−1, a 0
coeficientul de corelație și dreapta de regresie ).
4
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
Observație: Corelațiile ”puternice” între două variabile au coeficientul de corelație (în modul) cât mai
apropiat de 1. Cu cât valoarea coeficientului de corelație este mai aproape de 0, cu atât ipoteza conform
căreia cele două variabile sunt necorelate este mai ușor de acceptat. În statistică, valori ale coeficientului
de corelație de 0.12 sau -0.15 indică faptul că cele două variabile nu prezintă o asociere de tip liniar.
▪ Se numeşte funcţie generatoare de momente a unei variabile aleatoare X , valoarea medie a variabilei
et X , unde t .
, dată prin: g X ( t ) = M e .
t X
Notăm funcţia generatoare de momente cu g : →
g ( ) (t ) = m k ).
k
t =0
6) Dacă X este variabilă aleatoare discretă simplă, forma derivatei de ordin k a funcţiei
n n
g X ( t ) = et xi pi este: g X ( ) ( t ) = xi k e i pi , deci înlocuind pe t cu 0 obţinem:
k tx
i =1 i =1
n
g ( ) (t ) = g X ( ) ( 0 ) = xi k pi = m k
k k
t =0
i =1
5
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
9. FUNCȚIA CARACTERISTICĂ
Funcția caracteristică este foarte utilă în studiul unei variabile aleatoare deoarece cu ajutorul ei se
pot determina funcția de repartiție și momentele de orice ordin ale variabilei aleatoare. Pe de altă parte,
calculul cu funcții de repartiție poate fi dificil (datorită discontinuităților acestor funcții) dar calculele cu
funcția caracteristică sunt mai facile (funcțiile caracteristice sunt continue).
De asemenea, faptul că produsului de convoluție a două funcții de repartiție îi corespunde produsul
obișnuit al funcțiilor caracteristice constituie un avantaj în studiul diferitelor proprietăți ale variabilelor
aleatoare.
Pentru introducerea noțiunii de funcție caracteristică este necesară extinderea definiției variabilei
aleatoare reale și în cazul complex.
▪ Se numeşte funcţie caracteristică a unei variabile aleatoare X , valoarea medie a variabilei eit X , unde
t şi i 2 = −1 .
Deoarece e it x = 1 , funcția caracteristică există pentru orice variabilă aleatoare și este unic determinată
de funcția de repartiție.
Dacă se cunoaște funcția caracteristică a unei variabile aleatoare continue, cum se poate determina funcția
de repartiție?
Observație: Pentru orice putem scrie: e i = cos + i sin şi respectiv: e−i = cos − i sin .
6
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
2) X ( 0 ) = 1 și X ( t ) 1 , pentru t ;
3) X ( t ) = X ( −t ) , pentru t ;
X1 + X 2 +...+ X n ( t ) = X1 ( t ) X 2 ( t ) .... X n ( t )
Consecinţe:
k =1 k =1
5) Dacă Y = aX , cu a , atunci:
Y ( t ) = X ( at )
6) Dacă Y = aX + b , cu a, b atunci:
Y ( t ) = X ( at ) e ib t
( it )
k
7) Dacă X admite momente finite de orice ordin, atunci X ( t ) =
k =0 k!
mk .
8) Formula de legătură cu momentele iniţiale. Funcţia caracteristică este de n ori derivabilă în raport cu t
1 (k ) 1
şi k
X ( 0 ) = mk (sau k ( k ) ( t ) t =0 = mk ).
i i
9) Dacă X este variabilă aleatoare discretă simplă, forma derivatei de ordin k a funcţiei
n n
X (t ) = e
it x j
p j este: X (
k)
( t ) = i k x j k e itx j
p j , deci înlocuind pe t cu 0 obţinem:
j =1 j =1
n
(k ) (t ) t =0 = X ( k ) ( 0 ) = i k x j k p j = i k mk
j =1
10) Dacă X este variabilă aleatoare continuă, forma derivatei de ordin k a funcţiei
X ( t ) = e it x f ( x ) dx este: X ( k ) ( t ) = i k x k e it x f ( x ) dx , deci înlocuind pe t cu 0 obţinem:
− −
(k ) (t ) t =0 = X ( k ) ( 0 ) = i k x k e it x f ( x ) dx = i k m k
−
7
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
10.2. Asimetria
Pentru o variabilă aleatoare X , asimetria (coeficientul de asimetrie, en. skewness) este numărul real (dacă
există):
3 ( X )
A( X ) =
3
unde 3 ( X ) = M (( X − M X ) ) este momentul centrat de ordinul 3 al variabilei aleatoare iar este
3
abaterea standard.
Asimetria furnizează informații despre forma graficului repartiției variabilei aleatoare X . Dacă f ( x ) este
densitatea de repartiție a lui X , atunci:
▪ A ( X ) 0 graficul lui f are ”coadă” la stânga;
▪ A ( X ) 0 graficul lui f are ”coadă” la dreapta;
▪ A ( X ) = 0 graficul lui f este simetric în raport cu media.
10.3. Aplatizarea
Pentru o variabilă aleatoare X , aplatizarea (coeficientul de aplatizare, excesul sau boltirea, en. kurtosis)
este numărul real (dacă există):
4 ( X )
E(X ) = −3
4
abaterea standard.
8
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
Aplatizarea se folosește pentru a compara gradul de împrăștiere al unei variabile aleatoare continue în
raport cu împrăștierea variabilei aleatoare normale standard (0,1) (descrisă în cursul următor).
▪ E ( X ) 0 repartiție leptocurtică - graficul lui f are împrăștiere mai mică decât (0,1) (este mai
”ascuțit”);
▪ E ( X ) 0 repartiție platicurtică - graficul lui f are împrăștiere mai mare decât (0,1) (este mai
”turtit”);
9
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
CURS 7
REPARTIŢII CLASICE
Repartiții ale variabilelor aleatoare discrete simple
1. Repartiția Bernoulli
Variabila aleatoare Bernoulli este folosită pentru descrierea unei experiențe cu numai două
rezultate posibile (complementare), în situația în care experiența se efectuează o singură dată (de exemplu,
aruncarea unei monede care are ca rezultate posibile obținerea ”banului” sau a ”stemei”, extragerea unei
bile dintr-o urnă care conține bile de 2 culori, etc).
Deseori, cele 2 rezultate posibile, complementare, descrise printr-o variabilă Bernoulli sunt numite
generic ”succes” și ”insucces” (”succesul” este rezultatul care ne interesează, pe care îl contorizăm și nu are
întotdeauna conotație pozitivă – de exemplu, ne interesează probabilitatea găsirii unei piese defecte într-
un lot de piese, caz în care ”succesul” este atribuit extragerii unei piese defecte).
Atribuind, formal, valoarea 1 pentru ”succes” și valoarea 0 pentru ”insucces”, reprezentarea unei
variabile aleatoare Bernoulli este:
0 1
X =
q p
unde p este probabilitatea evenimentului de care suntem interesați (”succesul”) iar q este probabilitatea
evenimentului contrar: p + q = 1.
Parametrul repartiției Bernoulli: p ;
Media: M X = p ; Dispersia: D X = p (1 − p ) .
2
2. Repartiția binomială
Repartiția binomială reprezintă o generalizare a repartiției Bernoulli și este folosită pentru
descrierea unei experiențe cu numai două rezultate posibile (complementare), în situația în care experiența
se repetă de n ori (evident, în condiții similare, fără a se modifica probabilitatea de apariție a celor două
rezultate). Reprezentarea unei variabile aleatoare X cu repartiție binomială este:
0 1 ... ... k n k
X = 0 0 n 11 n −1 k n 0
k k n−k
= k k n −k
Cn p q C pq
n ... Cn p q Cn p q
... Cn p q
unde p este probabilitatea evenimentului de care suntem interesați iar q este probabilitatea
evenimentului contrar: p + q = 1.
Se notează: X Bi ( n, p ) .
Valorile variabilei aleatoare (de la 0 la n ) corespund numărului de apariții ale rezultatului
(evenimentului) de care suntem interesați (denumit, generic, ”succes”, ca și în cazul variabilei aleatoare
Bernoulli).
Parametrii repartiției binomiale: n și p ;
Media: M X = n p ; Dispersia: D X = n p (1 − p ) .
2
Funcția caracteristică: X ( t ) = ( p e it + 1 − p )
n
1
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
Funcția caracteristică: X ( t ) = e
(
e it −1 ).
Numele de ”negativă” provine din faptul că, dacă la variabila aleatoare binomială numărul de
încercări n era fixat și numărul k de succese era aleator, la variabila aleatoare binomială negativă numărul
de succese k este fixat iar numărul de încercări este aleator. Variabila aleatoare binomială negativă este,
într-un anumit sens, ”opusa / negativa” variabilei aleatoare binomiale.
3
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
Dispersia: D X 2
= .
12
et b − et a
, t \ 0
Funcția generatoare de momente: g X ( t ) = t ( b − a )
t =0
1,
eit b − eit a
Funcția caracteristică: X ( t ) = , t \ 0
it ( b − a )
2. Repartiția exponențială
O variabilă aleatoare X are repartiţie exponenţială de parametru 0 dacă densitatea ei de repartiție
este de forma:
e − x , x 0
f ( x) =
0 , x0
și se notează: X Exp ( ) .
Parametrul repartiției exponențiale: ;
1
Media: M X = ;
1
Dispersia: D 2 X = ;
2
Funcția generatoare de momente: g X ( t ) = , pentru orice t .
−t
Funcția caracteristică: X ( t ) =
− it
Interpretarea parametrului :
În multe situații practice suntem interesați de timpul scurs până la apariția unui eveniment – de exemplu
timpul până la sosirea unui autobuz în stație, timpul până la primirea primului apel telefonic într-o centrală
telefonică sau timpul până la sosirea primului client într-o benzinărie. În toate aceste situații putem
considera că timpul scurs până la apariția evenimentului dorit este o variabilă aleatoare X cu proprietatea
că probabilitatea ca X să ia valori într-un anumit interval (de timp, în exemplele de mai sus) este
proporțională cu lungimea acelui interval. Parametrul repartiției exponențiale este tocmai constanta de
proporționalitate.
4
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
1 −
f ( x) = 2 şi 0
2
e , cu m
2
Se notează: X (m, ) .
Graficul densității de repartiție pentru variabila aleatoare normală are formă de clopot (se mai numește
”Clopotul lui Gauss”) și are următoarele proprietăți:
1
▪ Admite un unic punct de maxim, de coordonate m, ;
2
▪ Este simetric în raport cu dreapta x = m ;
▪ Își modifică convexitatea în x = m − și x = m + ;
aleatoare normală: X 1 X 2 (m m ,
1 2 12 + 22 . )
▪ Dacă X 1 , X 2 ,..., X n ( m, ) sunt variabile aleatoare independente și identic repartizate, atunci
X 1 + X 2 + ... + X n
variabila aleatoare Y = este repartizată normal: Y m, .
n n
5
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
x2
1 −
f ( x) = e 2
2
Funcția de repartiție (cunoscută sub numele de funcția Gauss-Laplace) este:
2
notatie 1 −t
FX ( x ) = ( x) =
x
2 −
e 2 dt
▪ În practică este deseori util să transformăm o variabilă aleatoare normală X (m, ) într-o
variabilă aleatoare normală standard (0,1) . Pentru aceasta, se folosește transformarea:
X −m
Z= ( 0,1)
Funcția caracteristică: X ( t ) = e 2
4. Funcția Gauss-Laplace
Se notează cu ( x) și este funcția de repartiție a unei variabile aleatoare cu distribuția normală standard
X ( 0,1) :
t2
1 x −
( x) = FX ( x) =
2 −
e 2 dt
Proprietăți:
1) (−) = 0
2) (+) = 1
1
3) (0) =
2
4) ( x) + (− x) = 1 (este simetrică față de 0)
(
▪ ( x) se poate folosi pentru calcularea P X − m k , unde X ) ( m, ) :
P ( X − m k ) = 2 ( k )
▪ Funcția de repartiție a oricărei variabile X (m, ) se poate reprezenta cu ajutorul funcței Gauss-
Laplace:
6
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
(t −m ) 2
def 1 − x−m
x
P ( X x ) = F ( x) = e 2 2 dt =
2 −
Observații:
▪ Valorile funcției Gauss-Laplace sunt tabelate (Anexa 3 – Tabelul A)
▪ Funcția Gauss-Laplace se folosește foarte mult în inginerie, deoarece în majoritatea proceselor de
măsurare (unde intervin, inevitabil, erori de măsurare) se consideră că erorile urmează o distribuție
normală standard.
▪ altă abordare în cuantificarea erorilor de măsurare presupune calcularea ”funcției erorilor”, notată
2
erf ( x ) , care este funcția de repartiție a unei variabile aleatoare Y 0, care ia valori în
2
intervalul − x, x :
1 x
erf ( x ) = e−t dt
2
−x
▪ Valoarea funcției erorilor se poate afla cu ajutorul funcției Gauss-Laplace, legătura dintre aceste două
funcții fiind dată de relația:
1 x
( x) = 1 + erf
2 2
Observație: În calculele legate de variabile aleatoare continue, un rezultat des folosit este valoarea
x2
−
integralei Euler-Poisson:
−
e 2
dx = 2 . A nu se confunda cu funcția de repartiție
t2
1 −
x
( x) = F ( x) = e 2 dt . (capetele integralelor diferă !)
2 −
În definirea următoarelor repartiții intervine noțiunea de ”grade de libertate”. Această noțiune este
specifică fizicii și statisticii matematice și, în general, în definirea ei se folosește mărimea eșantionului de
date și numărul parametrilor care se vor estima.
Pentru a defini gradele de libertate strict în contextul repartițiilor de variabile aleatoare, să considerăm mai
întâi un exemplu.
1 2 3 n
Considerăm o variabilă aleatoare discretă X cu n valori: X =
p1 p2 p3 pn
Pentru a determina complet repartiția lui X este suficient să cunoaștem doar n − 1 din cele n
n
probabilități, a n -a probabilitate putând fi calculată în funcție de celelalte astfel: pk = 1 − p
i =1
i . Acest
ik
lucru este echivalent cu a spune că avem n − 1 grade de libertate (din cei n parametri necesari, n − 1 sunt
independenți și unul este dependent – se poate determina printr-o relație cunoscută în funcție de ceilalți).
Pe scurt, gradele de libertate ale unei variabile aleatoare reprezintă numărul de parametri
independenți suficienți pentru a-i determina complet repartiția.
2
i =1
i
7
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
X = i Zi
= 2
i =1 i =1
( )
n −
1
Funcția generatoare de momente: g X ( t ) = (1 − 2t )
−
,t (sau 1 − 2 t
2 2
2 ;
2
n
( )
n −
Funcția caracteristică: X ( t ) = (1 − 2it )
−
(sau 1 − 2it
2 2
2 ).
8
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
Media: M X = 0 ;
n
Dispersia: D 2 X = , pentru n 2 ;
n−2
Funcția generatoare de momente: nu este definită;
Funcția caracteristică: are o formă foarte complicată (poate fi exprimată cu ajutorul funcțiilor Bessel de a
doua speță). Nu se folosește în calcule uzuale.
Parametrii repartiției F: n1 și n2 ;
n2
Media: M X = , pentru n2 2 ;
n2 − 2
2n22 ( n1 + n2 − 2 )
Dispersia: D 2 X = , pentru n2 4 ;
n1 ( n2 − 2 ) ( n2 − 4 )
2
9
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
CURS 8-9
VECTORI ALEATORI BIDIMENSIONALI
În multe aplicații practice ale teoriei probabilităților și statisticii matematice nu este suficient să măsurăm și
cuantificăm o singură mărime (reprezentată printr-o variabilă aleatoare) ci avem nevoie de două sau mai
multe astfel de mărimi (variabile aleatoare). În plus, aceste mărimi nu sunt, de cele mai multe ori,
independente – în sensul efectelor și variațiilor comune care compun fenomenul studiat. Pentru a putea
studia aceste fenomene în complexitatea lor, se folosesc vectori aleatori, compuși din două sau mai multe
variabile aleatoare.
În acest capitol ne vom ocupa de vectori aleatori bidimensionali (formați din două variabile aleatoare).
Acești vectori se notează U = ( X , Y ) , unde componentele sunt variabile aleatoare (discrete sau continue).
Legătura dintre aceste două variabile aleatoare este pusă în evidență prin funcția lor comună de repartiție.
În continuare vom renunța la precizarea ”bidimensionali” și ne vom referi simplu la ”vectori aleatori”,
subînțelegând că sunt bidimensionali. Toate rezultatele prezentate pentru vectori aleatori bidimensionali se
pot generaliza cu ușurință pentru cazul multidimensional.
FUNCȚIA DE REPARTIȚIE
Ca și variabila aleatoare simplă, vectorul aleator bidimensional este o funcţie reală care depinde de
rezultatul unui anumit experiment.
Prin vectorii aleatori bidimensionali, unui fenomen supus unor circumstanţe aleatoare i se asociază
o pereche de numere reale, deci se stabileşte o corespondenţă între spaţiul de selecţie , convenabil ales,
şi 2 .
În practică este dificil să găsim valorile acestor corespondenţe, dar este posibil să determinăm „cât
de des” sunt luate aceste perechi de valori (cu ce probabilitate). Astfel, prin analogie cu cazul variabilelor
aleatoare, putem defini funcţia de repartiţie a vectorului aleator U .
▪ Fie , K , P spaţiu de probabilitate şi U : → 2 un vector aleator. Funcţia FU :
2
→ 0,1
definită prin:
( )
FU ( x, y ) = P X ( ) x , Y ( ) y , cu ( x, y ) 2
Proprietăți:
1) Funcţie mărginită 0 FU ( x, y ) 1 , deoarece:
FU ( x, − ) = FU ( −, y ) = 0 şi respectiv FU ( +, + ) = 1 ;
2) FX este continuă la stânga în fiecare argument;
1
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
Dacă vectorul aleator ( X , Y ) ia un număr finit de valori, atunci se numește discret și se poate reprezenta
printr-un tablou de repartiție bidimensional de forma:
X \Y y1 y2 ........ yn
n
x1 p11 p12 p1n p1 = p1 j
j =1
n
x2 p21 p22 p2n p2 = p2 j
j =1
. . . . .
. . . . .
. . . . .
n
xm pm1 pm 2 ........ pm n pm = pm j
j =1
m m m
q1 = pi1 q2 = pi 2 ......... qn = pi n 1
i =1 i =1 i =1
Observații:
• Dacă variabilele aleatoare X și Y sunt independente, atunci pi j = pi q j ;
• Din faptul că evenimentele ( X = x ,Y = y )
i j formează un sistem complet de evenimente, avem:
m n
p
i =1 j =1
ij = 1.
Fie vectorul aleator discret U = ( X , Y ) , reprezentat prin tabloul său de repartiţie (similar cu cel prezentat
mai sus).
▪ Funcția de probabilitate (en. probability mass function) a vectorului aleator discret U este funcția
care atașează fiecărei perechi de valori a vectorului probabilitatea cu care această valoare este luată:
f ( xi , y j ) = pij = P ( X = xi , Y = y j ) , cu i = 1, m și j = 1, n
2
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
( ) f ( x , y ) = 1 .
m n
În mod evident, f xi , y j 0 pentru orice i = 1, m și j = 1, n și i j
i =1 j =1
cu xi −1 x xi și y j −1 y y j , i = 1, m și j = 1, n .
x x2 ... xm xi
X : 1 = , cu i = 1, m și respectiv:
p1 p2 ... pm pi
y y2 ... yn y j
Y : 1 = , cu j = 1, n
q1 q2 ... qn q j
Probabilitățile pi = P ( X = xi ) și respectiv q j = P Y = y j ( ) se numesc probabilități marginale și se
calculează prin însumarea pe linii (respectiv pe coloane) a probabilităților pij = P X = xi , Y = y j ( ) din
tabloul de repartiție al vectorului discret U = ( X , Y ) .
Observație: Dacă se cunoaște tabloul de repartiție al unui vector aleator U = ( X , Y ) , se poate calcula
produsul variabilelor marginale, indiferent dacă acestea sunt independente sau nu:
xi y j
X Y =
p i j i =1,m
j =1, n
Evident, odată cunoscută repartiția variabilei produs, calcularea mediei M XY nu mai comportă nicio
dificultate:
m n
M [ XY ] = xi y j p i j
i =1 j =1
evenimentul Y = y j și are tabloul:
x1 x2 ... xi ... xm xi
X Y = y j = p1 j p2 j
...
pij
...
pmj = pij , cu i = 1, m și j fixat
q qj qj q j q j
j
P ( X = xi , Y = y j )
( )
pij
Valorile = = P X = xi Y = y j sunt probabilitățile condiționate corespunzătoare,
qj P (Y = y j )
pentru i = 1, m și j fixat.
3
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
P (Y = y j , X = xi )
= P (Y = y j X = xi )
pij
Valorile = sunt probabilitățile condiționate
pi P ( X = xi )
corespunzătoare, pentru j = 1, n și i fixat.
( )
m m p
M X Y = y j = xi P X = xi Y = y j = xi ij cu i = 1, m și j fixat și
i =1 i =1 q j
M Y X = xi = y j P (Y = y j X = xi ) = y j
n n pij
, cu j = 1, n și i fixat
j =1 j =1 pi
M X Y = yj
M X Y =
qj
▪ Media lui Y condiționată de X este o variabilă aleatoare cu repartiția:
M Y X = xi
M Y X =
pi
Observații:
( )
1) M M Y X = M Y și respectiv M M X Y = M X ; ( )
2) M ( X M Y X ) = M XY .
4
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
▪ Fie , K , P câmp de probabilitate. Considerăm o clasă de vectori aleatori U = ( X , Y ) pentru care
există o funcţie f :
2
→ 0, + ) cu un număr finit de puncte de discontinuitate de prima speţă (deci
integrabilă), ce satisface relaţia:
def
P ( X x , Y y ) = FU ( x, y ) = f ( u, v ) du dv
x y
− −
unde FU ( x, y ) este funcţia de repartiţie a vectorului aleator U . Atunci funcţia f se numeşte densitate
de repartiție a vectorului aleator U .
Proprietăţi ale densității de repartiție:
Observații:
2 F 2 F
• Dacă f este continuă, atunci există și avem: = f ( x, y ) .
xy xy
a c
▪ Densitățile de repartiție marginale sunt densitățile de repartiție ale variabilelor aleatoare componente
ale vectorului aleator și se calculează cu ajutorul densității de repartiție a acestuia:
fX ( x) = f ( x, y ) dy și respectiv: fY ( y ) = f ( x, y ) dx
− −
Această relație este cunoscută și sub denumirea de ”Teorema multiplicării legilor de repartiție” și reprezintă
condiția necesară și suficientă de independență a două variabile aleatoare.
Acest criteriu de verificare a independenței se poate aplica doar dacă se cunoaște densitatea de repartiție
comună f ( x, y ) .
▪ Funcțiile de repartiție marginale sunt funcțiile de repartiție ale variabilelor aleatoare marginale X și
Y . Acestea se pot calcula în două moduri:
5
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
− −
− −
▪ Densități de repartiție condiționate: sunt densitățile de repartiție ale variabilelor aleatoare condiționate
(X Y = y ) și (Y X = x ) :
f ( x, y ) f ( x, y )
f ( X Y = y) = f ( x y) = și respectiv: f (Y X = x ) = f ( y x ) = .
fY ( y ) fX ( x)
F ( X Y = y) =
−
fY ( y )
(
și respectiv: F Y X = x = ) −
fX ( x)
▪ Cu ajutorul densităților de repartiție condiționate se pot calcula probabilități condiționate de forma:
P (Y b X = x ) = f ( y x ) dy și respectiv P ( X a Y = y ) = f ( x y ) dx
b a
− −
M [ X ] = x f X ( x ) dx și respectiv M [Y ] = y fY ( y ) dy
− −
M [ XY ] = x y f ( x, y ) dxdy .
2
−
−
6
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
Observație: Mediile condiționate ale variabilelor aleatoare continue pot fi privite ca numere sau ca funcții!
1− y
De exemplu, să presupunem că am calculat M X Y = y = , pentru y 0,1 . Pentru orice valoare
2
concretă, fixată, a lui y în intervalul 0,1 , M X Y = y este un număr. Dacă y 0,1 , fără a se
M M X Y = M X Y = y fY ( y ) dy și respectiv:
−
M M Y X = M Y X = x f X ( x ) dx
−
Observație: Ca și în cazul discret, variabila aleatoare M Y X (și în mod analog M X Y ) are
proprietățile:
( ) (
1) M M Y X = M Y și respectiv M M X Y = M X ; )
2) M ( X M Y X ) = M XY .
7
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
CURS 10
REGRESIE. ESTIMĂRI LINIARE ȘI NELINIARE
1. FUNCȚII DE REGRESIE
Termenul de ”regresie” provine din studiile efectuate, în domeniul eredității, de statisticianul englez
Francis Galton (1822 – 1911).
Regresia ne arată (în formă analitică) cum o variabilă este dependentă de altă variabilă (sau de alte
variabile) și nu implică cauzalitate – dacă există cauzalitate, aceasta trebuie justificată pe baza unei teorii
existente în domeniul de aplicabilitate (legi ale fizicii, biologiei, economiei, etc).
Analiza de regresie estimează valoarea medie a unei variabile, cunoscând valorile fixate ale altei
variabile (sau altor variabile).
RX ( y ) = M X Y = aY + b , cu a, b sau
RY ( x ) = M Y X = aX + b , cu a, b
spunem că regresia este liniară (dependența dintre cele două variabile este liniară).
1
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
modulul coeficientului de corelație este apropiat de 1), atunci valorile luate de vectorul aleator
U = ( X , Y ) tind să fie situate pe dreapta de ecuație:
cov X , Y
y − M Y =
D2 X
( x − M X )
numită dreaptă de regresie a lui Y în raport cu X .
▪ Semnul coeficientului de corelație coincide cu semnul covarianței (dispersiile sunt întotdeauna pozitive)
și cu panta dreptei de regresie (ne vom referi în continuare la dreapta de regresie a lui Y în raport cu X ).
Astfel, avem:
• Dacă X , Y 0 , la o creștere a valorilor variabilei X , valorile lui Y au tendința să crească;
• Dacă X , Y 0 , la o creștere a valorilor variabilei X , valorile lui Y au tendința să scadă;
• Dacă X , Y = 0 , variabilele X și Y sunt necorelate.
Revenim asupra unui aspect foarte important, precizat în Cursul 5+6 (la proprietățile coeficientului de
corelație), și anume legătura dintre independența a două variabile aleatoare și valoarea coeficientului de
corelație:
Această tehnică este cunoscută sub numele de ”Metoda celor mai mici pătrate”. În continuare sunt
prezentate câteva rezultate importante obținute pe baza acestei metode, fără a insista asupra metodei în
sine:
1. Estimări liniare și omogene, de forma: Y = aX , a
2. Estimări liniare și neomogene, de forma: Y = aX + b , a, b
3. Estimări neliniare, de forma Y = ( X ) , unde nu este funcție liniară.
Fie X și Y două variabile aleatoare (discrete sau continue) care au momente inițiale de ordin 1 și 2,
nenule. Alegem să estimăm variabila Y în funcție de variabila X .
▪ Cea mai bună estimare liniară neomogenă a lui Y în funcție de X are proprietatea că perechea
( X , Y ) este situată pe dreapta de regresie:
cov X , Y
Y − M Y =
D2 X
( X − M X )
▪ Cea mai bună estimare neliniară a lui Y în funcție de X este media lui Y condiționată de X ,
M Y X .
Observații:
• Termenul de ”cea mai bună estimare...” face referire la îndeplinirea condiției de minim din Metoda celor
mai mici pătrate.
• Similar se poate defini cea mai bună estimare liniară sau neliniară a lui X în funcție de Y . Alegerea
variabilei de estimat se face în funcție de situația particulară de aplicare – în funcție de logica teoretică a
dependenței dintre mărimile reprezentate de cele două variabile aleatoare.
3
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
CURS 11
OPERAȚII CU VARIABILE ALEATOARE CONTINUE
Cu ajutorul repartiției comune a două variabile aleatoare (componente ale unui vector aleator) se pot defini
densitățile de repartiție ale sumei, diferenței, produsului și câtului acestor variabile.
x = 1 ( u, v )
, ( x, y ) D și ( u , v )
y = 2 ( u , v )
1 1
u v
2) Jacobianul transformării J ( u , v ) = 0 pe ;
2 2
u v
În aceste condiții, compunerea dintre ( X , Y ) și inversa transformării este tot o variabilă aleatoare notată
(U ,V ) . Dacă densitatea de repartiție comună a variabilelor X și Y este f X ,Y ( x, y ) , atunci, folosind
formula schimbării de variabilă în integrala dublă:
f ( x, y ) dxdy = f ( (u, v ) ,
D
1 2 ( u, v ) ) J ( u, v ) du dv
fU ,V ( u , v ) = f X ,Y (1 ( u , v ) , 2 ( u , v ) ) J ( u , v )
Observație: Dacă avem o singură variabilă aleatoare X cu densitatea de repartiție f X ( x ) și avem nevoie
să facem o schimbare de variabilă (de exemplu, pentru a ușura anumite calcule) de forma:
x = ( y ) , cu de clasă C 1 ( D ) , D ,
atunci densitatea de repartiție a inversei transformării (care este o variabilă aleatoare pe care o notăm cu
Y ) este:
d
f Y ( y ) = f X ( ( y ) )
dy
1
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
y −b y −b
Rezolvare: Considerăm transformarea x = , adică ( y ) = , care este o funcție de clasă
a a
d 1
C1 ( D ) , D . Calculăm = și obținem:
dy a
d y −b 1
f Y ( y ) = f X ( ( y ) ) = fX ,
dy a a
deci variabila aleatoare Y = aX + b are densitatea de repartiție :
y −b 1
fY ( y ) = f X .
a a
Acest rezultat se poate folosi, fără demonstrație, în numeroase aplicații care presupun transformări liniare
ale unor variabile aleatoare.
f Z (u ) = f (v, u − v) dv
−
fT (u ) = f (v, v − u ) dv
−
2
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
u u 1
f ( x, y ) = f , v J = f , v . Densitatea de repartiție a variabilei aleatoare Q = X Y este
v v v
repartiția marginală în raport cu u = x y , adică:
u 1
fT (u ) = f , v dv
−
v v
X
▪ Densitatea de repartiție a câtului variabilelor X și Y , notată W =
Y
x
u = x = uv
Considerăm transformarea y , care admite inversa , cu jacobianul J = v . Atunci
v = y y=v
X
f ( x, y ) = f ( uv, v ) v . Densitatea de repartiție a variabilei aleatoare W = este repartiția marginală în
Y
x
raport cu u = , adică:
y
fW (u ) = f ( uv, v ) v dv
−
xi
Observație: Fie X o variabilă aleatoare de tip discret, cu repartiția: , i și Y o variabilă aleatoare
pi
de tip continuu, cu densitatea de probabilitate f ( x ) . Densitatea de probabilitate a sumei Z = X + Y
este:
f Z ( x ) = pi fY ( x − xi )
i =0
3
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
CURS 12
ȘIRURI DE V.A. TEOREMA LIMITĂ CENTRALĂ. LEGEA NUMERELOR MARI
lim FX n ( x ) = FX ( x )
n →
(
X ( ) formează un eveniment de probabilitate 1: P lim X n ( ) = X ( ) = 1 .
n →
)
1.4. Convergența în medie
( X n )n
⎯⎯ → X (converge în medie de ordinul r ) dacă există momente absolute M X n și
r r
Șirul *
M X și avem: lim M X n − X = 0 .
r r
n →
Observație: Dacă r = 2 , convergența în medie de ordinul 2 se numește convergență în medie pătratică.
( X n )n ⎯⎯→
a.s.
X
( X n )n ⎯⎯⎯ →X ( X n )n ⎯⎯→
* prob rep
X
( X n )n * ⎯⎯ →X
r * *
Enunț: Fie X o variabilă aleatoare care admite medie şi dispersie finite (notate m și 2 ). Atunci, pentru
orice 0 , are loc inegalitatea:
2
P ( )
X − m 1− 2
Observaţii:
1. Inegalitatea lui Cebâșev se poate exprima sub forma:”Abaterea de la medie este puțin probabilă”.
2. Există şi o formă „complementară” pentru inegalitatea lui Cebâşev, şi anume:
2
P ( )
X − m 2
.
Enunț (Liapunov): Fie ( X n ) n * un șir de variabile aleatoare independente, identic repartizate, cu media m
și dispersia 2 (finită). Atunci, pentru x :
n
Xk − nm
lim P k =1 x = ( x)
n →
n
n
X k − nm
(Șirul Yn = k =1
converge în repartiție către o variabilă normală standard, unde
n
t2
1 x −
( x) =
2 −
e 2
dt este funcția lui Laplace).
2
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
Observație: Dacă șirul ( X n )n converge în repartiție către X rezultă, din definiția acestui tip de
*
n
Xk − nm
lim P a k =1 b = (b ) − ( a )
n →
n
sau, echivalent:
n
b − nm a − nm
lim P a X k b = −
n→
k =1 n n
și se folosesc valorile tabelate ale funcției lui Laplace (repartiția normală standard, Tabelul A).
Teorema Moivre-Laplace
Reprezintă varianta particulară a Teoremei Limită Centrală, pentru un șir de variabile aleatoare
1 0
independente, repartizate Bernoulli: X = , cu p + q = 1, media m = p și dispersia = pq . În
2
p q
acest caz, forma Teoremei Limită Centrală este:
n
X k − n p
lim P k =1
x = ( x)
n → npq
și reluând argumentația din observația de mai sus, avem formele echivalente:
n
Xk − n p
lim P a k =1 b = (b ) − ( a )
n →
npq
n
b − n p a − n p
și lim P a X k b = −
npq
.
n→
npq
k =1
3
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
X
1 n 1
sau, pentru n ( X n )n * = Xk : k − an ⎯⎯⎯
prob.
n→
→ 0 , spunem că șirul ( X n ) n * satisface legea
n k =1 n k =1
▪ Dacă convergența are loc aproape sigur (a.s.), spunem că șirul ( X n )n * satisface legea tare a
numerelor mari.
În continuare vom prezenta câteva rezultate teoretice în varianta slabă.
Forma generală:
Fie ( X n )n * un șir de variabile aleatoare independente, identic repartizate (au aceeași medie m și
aceeași dispersie 2 , finite). Atunci, pentru 0 și 0 , există un număr natural n0 ( , ) astfel
încât pentru n n0 avem:
1 n 1 n
P X k − m sau, echivalent: P X k − m 1 − .
n k =0 n k =0
Observație: Acest rezultat fundamentează teoretic procesul uzual de aproximare a mediei caracteristicii
studiate a unei populații statistice prin media aritmetică a valorilor observate. Într-adevăr, dacă
X1 , X 2 ,..., X n sunt privite ca valori potențiale ale unei variabile aleatoare X obținute printr-un șir de
probe independente, atunci teorema arată că media aritmetică a acestora converge în probabilitate la
media teoretică.
1 n 1 n
lim P X k − M X k = 1
n →
n k =1 n k =1
Sau, într-o formulare echivalentă:
1 n 1 n
lim P X k − M X k = 0
n →
n k =1 n k =1
Observație: Această formă a Legii Numerelor Mari constituie justificarea teoretică a definiției în sens
statisitic a probabilității (cu ajutorul frecvențelor relative). Enunțul poate fi reținut sub forma: ”frecvența
relativă tinde în probabilitate la probabilitatea teoretică”.
4
2021 Curs MS seria A și C, ETTI Lect.dr. Purnichescu-Purtan Raluca
▪ În legea slabă a numerelor mari în forma Bernoulli avem n variabile aleatoare identic repartizate
1 0
Bernoulli: X = , cu p + q = 1. Media variabilei X este M X = p iar dispersia este
p q
D 2 X = pq . Se poate demonstra cu ușurință că pq
1
, deci avem dispersii uniform mărginite și deci
4
Teorema lui Bernoulli este o particularizare a legii slabe a numerelor mari în forma Cebâșev.
lim P ( f n − p ) 1 −
pq
n → n 2
k
unde f n = este frecvența relativă de apariție a evenimentului ”de interes”, codificat cu 1 în variabila
n
aleatoare Bernoulli (sau notat A , cu P ( A ) = p ).
▪ În sensul enunțului general al Legii Numerelor Mari, pentru variabile Bernoulli avem:
k 1 1
P − p , și deoarece 2 = pq , alegem n0 ( , ) .
n 4 4 2
Cu ajutorul acestei relații putem determina volumul unei selecții bernoulliene care să permită aplicarea Legii
Numerelor Mari .