Sunteți pe pagina 1din 289

Cuprins

Prefaţă .................................................................................................................. 5

1. Câmp de evenimente. Câmp de probabilitate ........................................... 6

1.1. Evenimente .............................................................................................................................. 6

1.2. Câmp de probabilitate .......................................................................................................... 9

1.3. Probabilitate condiţionată .................................................................................................. 13

1.4. Scheme probabilistice clasice de calcul a probabilităţilor ......................................... 15

2. Variabile aleatoare. Funcţii şi densităţi de repartiţie ......................... 20

2.1. Variabile aleatoare ............................................................................................................... 20

2.2. Funcţia de repartiţie. Densitate de repartiţie ............................................................. 24

2.3. Caracteristici numerice ale funcţiilor de repartiţie ................................................... 28


2.4. Vectori aleatori. Funcţii de repartiţie şi densităţi de repartiţie
30
multidimensionale .........................................................................................................................

2.5. Momente obişnuite şi centrate. Proprietăţi .................................................................. 37

2.6. Inegalităţi pentru momente. Inegalitatea lui Holder .................................................. 44

2.7. Corelaţie şi coeficient de corelaţie ................................................................................. 46

2.8. Funcţii de argumente aleatoare ........................................................................................ 49

2.9. Funcţie caracteristică. Proprietăţi .................................................................................. 53

2.10. Funcţia generatoare .......................................................................................................... 62

3. Legi de repartiţie .......................................................................................... 65

3.1. Repartiţii de tip discret ...................................................................................................... 65

3.2. Repartiţii care admit densitate de repartiţie. Repartiţia normală N (m, σ ) ........ 75

[ ]
3.3. Repartiţia uniformă pe un interval a, b ....................................................................... 79
3.4. Repartiţia Gama de parametri a, b > 0 ......................................................................... 80

3.5. Repartiţia Student ............................................................................................................... 85

3.6. Repartiţia Snedecor şi repartiţia Fischer ..................................................................... 87

3.7. Repartiţia Weibull ................................................................................................................ 91

3.8. Repartiţia normală n-dimensională ................................................................................... 92


4. Legea numerelor mari. Legi limită .............................................................. 97

4.1. Şiruri de variabile aleatoare. Convergenţă ..................................................................... 97

4.2. Legea numerelor mari .......................................................................................................... 100

4.3. Teorema lui Bernoulli ........................................................................................................... 104

4.4. Teoreme limită ...................................................................................................................... 107

4.5. Teorema limită centrală (Lindeberg – Levy) .................................................................. 108

4.6. Teorema Moivre – Laplace .................................................................................................. 111

4.7. Teorema Lindeberg – Feller ............................................................................................... 115

5. Procese Markov şi Poisson ........................................................................... 117

5.1. Procese Markov depinzând de un parametru discret ................................................... 117

5.2. Probabilităţi de trecere ..................................................................................................... 119

5.3. Probabilităţi de trecere după n paşi ................................................................................ 121

5.4. Teorema ergodică ................................................................................................................. 123

5.5. Exemple de lanţuri Markov omogene ............................................................................... 125

5.6. Procese Markov ce depind de un parametru continuu ................................................. 130

5.7. Procese Poisson ..................................................................................................................... 131

5.8. Procesul de naştere şi moarte .......................................................................................... 139

6. Elemente de teoria informaţiei .................................................................. 143

6.1. Informaţia; cantitatea de informaţie .............................................................................. 143

6.2. Entropie. Proprietăţi ale entropiei ................................................................................... 147

6.3. Entropia relativă ................................................................................................................... 158

6.4. Transmiterea informaţiei. Codificarea ........................................................................... 163


6.5. Cantitatea de informaţie conţinută într-un model input-output şi variaţia ei
167
prin agregare .................................................................................................................................

7. Elemente de teoria selecţiei şi estimaţiei ............................................... 171

7.1. Noţiuni generale .................................................................................................................... 171

7.2. Momente de selecţie ........................................................................................................... 172

7.3. Selecţia dintr-o populaţie normală N (m, σ ) ................................................................ 175

7.4. Elemente de teoria estimaţiei ........................................................................................... 180

7.5. Teorema Rao - Cramer ........................................................................................................ 183


7.6. Metoda momentelor ............................................................................................................. 186

7.7. Metoda verosimilităţii maxime .......................................................................................... 188

7.8. Intervale de încredere ....................................................................................................... 192

7.9. Intervale de încredere pentru parametri în cazul selecţiilor de volum mare ....... 200

8. Verificarea ipotezelor statistice ............................................................... 206

8.1. Noţiuni generale .................................................................................................................... 206


8.2. Metoda intervalelor de încredere pentru verificarea ipotezelor statistice
221
asupra parametrilor legilor normale ........................................................................................

8.3. Testul T pentru verificarea ipotezei referitoare la media unei populaţii


222
normale N (m, σ ) , cu σ necunoscut .......................................................................................

8.4. Elemente de analiză dispersională .................................................................................... 236

8.5. Elemente de analiză secvenţială. Testul secvenţial al raportului probabilităţilor 240

9. Elemente de teoria corelaţiei şi regresiei ............................................... 245

9.1. Raportul de corelaţie ........................................................................................................... 248

9.2. Coeficientul de corelaţie .................................................................................................... 249

9.3. Corelaţie şi dependenţă stohastică în cazul variabilelor continue ........................... 251

9.4. Ecuaţiile de regresie. Coeficienţii de regresie şi corelaţie ....................................... 254

9.5. Dreapta de regresie ca aproximaţie a curbei de regresie neliniară ........................ 255


9.6. Estimarea pe baza observaţiilor a coeficienţilor de corelaţie şi regresie,
257
precum şi a raportului de corelaţie ..........................................................................................

9.7. Corelaţie multiplă ................................................................................................................. 259

9.8. Coeficientul de corelaţie parţială .................................................................................... 264

9.9. Coeficienţi de corelaţie a rangurilor ............................................................................... 268

9.10. Reunirea sau comasarea rangurilor ................................................................................ 270

9.11. Coeficientul de corelaţie a rangurilor al lui Kendall ................................................... 273

9.12. Coeficientul de contingenţă al lui Pearson .................................................................... 275

9.13. Metode celor mai mici pătrate ........................................................................................ 276

9.14. Ipotezele Gauss – Markov ................................................................................................ 281

9.15. Estimarea matricei de covarianţă .................................................................................. 283

Bibliografie .......................................................................................................... 288


PREFAŢĂ

Cartea pe care o prezentăm este concepută să acopere programa analitică, în special, pentru
studenţii Facultăţii de Cibernetică, Statistică şi Informatică Economică, din anul II şi III.
Ea este utilă şi studenţilor de la celelalte facultăţi din cadrul Academiei de Studii Economice
şi, de ce nu, pentru studenţii facultăţilor de profil economic din ţară.
Materialul prezentat urmăreşte să dea posibilitatea studenţilor economişti să înţeleagă
modelarea aleatoare a fenomenelor economice, să rezolve probleme de teoria probabilităţilor şi
statistică matematică, să înţeleagă şi să pătrundă cunoştinţele dobândite deja la cursul de statistică
teoretică sau economică. Ne-am străduit să utilizăm pe cât posibil numai noţiunile de algebră liniară
şi analiză matematică pe care le dobândesc studenţii la cursul de “Matematici cu aplicaţii în
economie”, fără a face concesii prea mari rigorii ştiinţifice specifice cursurilor de matematică.
Deşi timpul alocat studiului teoriei probabilităţilor (inclusiv cunoştinţe de teoria proceselor
stochastice) şi statisticii matematice foarte limitat ne-a silit să scoatem din programă noţiuni şi
rezultate de teoria informaţiei, am considerat că în acest curs trebuie să-şi găsească loc şi un capitol
de teoria informaţiei, pentru ca studentul să-şi completeze cunoştinţele cu care vine în contact la
cursurile de informatică.
În unele situaţii sunt prezentate şi aplicaţii, dar acestea sunt în număr redus, dat fiind faptul
că urmează să apară o culegere de probleme unde vor fi reflectate mai bine noţiunile şi rezultatele
obţinute, prin exemple variate atât sub formă teoretică, cât şi numerică.
Conţinutul cărţii este completat cu o anexă în care figurează tabele statistice ale
principalelor funcţii de repartiţie ce intervin frecvent în aplicaţii.
Tot aici este dată o tabelă ce cuprinde valorile funcţiei-plogp necesară rezolvării
problemelor în care intervine efectiv noţiunea de entropie.
Bibliografia pe care am indicat-o în final are rolul de a indica cititorului unde poate găsi
demonstraţii complexe şi riguroase ale unor teoreme pe care nu le-am putut prezenta fie din lipsă de
spaţiu, fie din cauză că ar fi necesitat completări teoretice pentru a putea fi înţelese. Parcurgând
bibliografia, cititorul are la dispoziţie piste pentru lămuriri suplimentare sau completări de
cunoştinţe. Această bibliografie este orientativă şi am căutat să facem trimiteri, pe cât posibil, la
lucrări de referinţă, fie ele în limba română, fie în alte limbi de largă circulaţie.
Vom primi cu multă simpatie sugestiile cititorilor, în vederea îmbunătăţirii conţinutului
cărţii, pentru a fi de un real folos celor ce sunt interesaţi şi care au un bagaj relativ de cunoştinţe în
alte domenii de matematică.
Vom încheia prin a sublinia faptul că la capitolul “Procese Markov şi Poisson” am
considerat util să arătăm că se pot obţine unele modele din teoria firelor de aşteptare prin
particularizarea procesului general de naştere şi moarte, dat fiind faptul că în cadrul cursului de
“Cercetări operaţionale” nu este timp suficient pentru obţinerea sistemului de ecuaţii caracteristice
modelului.

AUTORII

5
Capitolul 1

CÂMP DE EVENIMENTE. CÂMP DE PROBABILITATE

1.1. Evenimente

Noţiunea primară cu care se operează în teoria probabilităţilor este noţiunea de


eveniment. Prin eveniment se înţelege rezultatul unui experiment.
Când vorbim de experiment, înţelegem un fenomen în ansamblul său, indiferent dacă,
în evoluţia sa, este dirijat, provocat de om sau nu.
Prin urmare, când vorbim de un experiment subînţelegem existenţa unui complex de
condiţii, la care ne raportăm în studiul fenomenului considerat şi faţă de care considerăm
diversele rezultate posibile, diversele evenimente.
Din punct de vedere probabilistic, ne interesează acele fenomene, experimente, ale
căror rezultate nu pot fi prevăzute cu certitudine, care au loc după o legitate de tip determinist.
Interesează acele experimente ale căror rezultate, influenţate de o multitudine de
factori ce acţionează întâmplător - în cadrul complexului de condiţii care se presupune a fi
asigurat - şi care determină un caracter întâmplător evenimentelor ce apar.
Această acţiune întâmplătoare nu este haotică, ci are un caracter legic, care este
specific teoriei probabilităţilor şi statisticii matematice. Aşadar, evenimentele apar după o
anumită legitate, căreia îi vom spune să este de tip stochastic şi în studiul oricărui fenomen
căutăm să determinăm legitatea de evoluţie a sa.
Evenimentele ce apar ca rezultat al unor experimente le vom nota A, B, C … cu indici
sau nu, după cum va fi necesar într-un context dat.
În mulţimea evenimentelor distingem unele evenimente remarcabile. Evenimentul
care se realizează cu certitudine într-o experienţă ce are loc în cadrul unui complex de condiţii
date, îl vom numi evenimentul sigur şi-l vom nota cu Ω sau E. Evenimentul care nu se
realizează niciodată în cadrul unui experiment dat, îl vom numi evenimentul imposibil şi-l
vom nota cu Φ. Evenimentul contrar sau complementar unui eveniment A este acel
eveniment care se realizează atunci şi numai atunci când nu se realizează A. Vom nota acest
eveniment cu AC sau A . Între evenimente există relaţii logice pe care le vom nota cu semnele
utilizate în teoria mulţimilor. Astfel, vom nota o familie de evenimente cu litere mari ronde şi
dacă A este un eveniment ce aparţine unei familii K de evenimente, vom scrie A∈ K.
De asemenea, dacă A este o familie de evenimente conţinute în familia K, vom scrie A
⊂ K.
Dacă realizarea evenimentului A atrage după sine (implică) realizarea evenimentului
B vom scrie A ⊂ B.
Două evenimente A şi B sunt echivalente dacă se implică unul pe altul şi vom scrie
A = B. Deci, A⊂ B şi B ⊂ A ⇔ A = B.
În cadrul unui complex de condiţii date, pentru un eveniment A arbitrar, avem
implicaţiile:
Φ⊂A⊂Ω
În mulţimea evenimentelor legate de un experiment dat, relaţia de implicaţie constituie
o relaţie de ordine parţială. Aceasta înseamnă că operaţia “⊂” are proprietăţile:
i) reflexivitate: A ⊂ A oricare ar fi evenimentul A
ii) antisimetria: dacă A ⊂ B şi B ⊂ A, atunci A = B
iii) tranzitivitatea: dacă A ⊂ B şi B ⊂ C, atunci A ⊂ C
iv) pot exista evenimente A, B astfel încât A ⊄ B şi B ⊄ A.

6
9
Operaţii cu evenimente. Ca şi relaţiile dintre evenimente, operaţiile cu evenimente
sunt operaţii logice şi ele vor fi simbolizate ca în teoria mulţimilor.
Dacă A şi B sunt evenimente, vom considera evenimentul care constă în realizarea sau
a evenimentului A sau a evenimentului B şi-l vom nota A ∪ B (se citeşte “evenimentul A sau
B”).
Odată cu evenimentele A, B, considerăm evenimentul care constă în realizarea
simultană a evenimentelor A, B şi-l vom nota A ∩ B (se citeşte “evenimentul A şi B”).
Două evenimente a căror realizare simultană este echivalentă cu evenimentul
imposibil se numesc incompatibile şi vom scrie A ∩ B = ∅; în caz contrar, evenimentele se
numesc compatibile (A ∩ B ≠ ∅).
Fiind date evenimentele A, B se introduce evenimentul care constă în realizarea
evenimentului A şi nerealizarea evenimentului B, notat A - B. Se constată imediat că A - B =
A ∩ B ; B = Ω - B (complementarul faţă de Ω). Putem enunţa acum un rezultat asupra căruia
vom mai reveni.
Orice reuniune de evenimente arbitrare se poate scrie ca o reuniune de evenimente
incompatibile.
Într-adevăr, dacă evenimentele A1,A2,…,An sunt compatibile, atunci dacă
k-1
Bk = A k − U Aj , k=1,2,…,n se constată imediat că Bk∩Bk’=Φ, k≠k’, k,k’∈{1,2,…,n} şi
j=1
n n k-1 n

U A = U (A - U A )
k =1
k
k =1
k
j=1
j = UB
k =1
k .

Câmp de evenimente. Să considerăm o mulţime arbitrară Ω≠Φ şi ℘(Ω) mulţimea


părţilor lui Ω.
Definiţie. O familie nevidă K⊂℘(Ω) se numeşte corp de părţi (mulţimi ) dacă:
i) (∀) A∈K ⇒ A ∈K
ii) (∀) A,B∈K ⇒ A∪B∈K
Observaţie. Axioma ii) este echivalentă cu:
n
ii’) (∀) A1,A2,…,An∈K, n∈N, n≥2 ⇒ U A ∈K.
k =1
k

Într-adevăr, ii) ⇒ ii’) deoarece A1,A2∈K ⇒ A1∪A2∈K. Luăm acum A1∪A2,A3∈K ⇒


n
A1∪A2∪A3∈K ş.a.m.d. Dacă A1∪A2∪…∪An-1∈K, An∈K ⇒ UA
k =1
k ∈K. ii’) ⇒ ii) deoarece

pentru n = 2, dacă punem A1=A, A2=B, rezultă afirmaţia.


Asociativitatea reuniunii, împreună cu i) şi ii) implică faptul că un corp K este o
mulţime nevidă de părţi închisă în raport cu reuniunea finită şi complementară.
Propoziţie. Dacă K⊂℘(Ω) este un corp de părţi, atunci:
1) Ω ∈K, Φ∈K
n
2) (Ak) 1 ≤ k ≤ n ⊂ K ⇒ IA
k =1
k ∈K

3) A,B ∈ K ⇒ A \ B ∈ K
4) A,B ∈ K ⇒ A ∆ B ∈ K
Demonstraţie:
1) Întrucât K este corp de părţi, există A⊂Ω astfel încât A ∈ K. Deci A ∈ K şi A∪ A =Ω ∈
K. De asemenea, Ω = Φ∈K.

7
10
n n n
2) A1,A2,…,An∈ K ⇒ A 1, A 2,…, A n ∈ K şi UA
k =1
k ∈ K ⇒ U A k = I Ak ∈ K .
k =1 k =1

3) A,B ∈ K ⇒ A, B ∈ K ⇒ A∩ B = A - B ∈ K.
4) A,B ∈ K, A∆B = (A-B) ∪ (B-A) ∈ K.
Ţinând seama de modul cum am definit evenimentul A∪B, rezultă că, dacă A1,A2,…,An sunt
n
evenimente, atunci UA
k =1
k este evenimentul care constă în realizarea cel puţin a unuia din
n n n n
evenimentele A1,A2,…,An. De aici, rezultă, UA =IA
k =1
k
k =1
k şi IA =UA
k =1
k
k =1
k , adică tocmai

formulele lui De Morgan din teoria mulţimilor. Aceste moduri de scriere a evenimentelor vor
fi folosite frecvent în rezolvarea unor probleme de teoria probabilităţilor.
Definiţie. O familie nevidă K⊂℘(Ω) se numeşte σ - corp de mulţimi (sau corp borelian)
dacă:
i) (∀) A∈K ⇒ A ∈ K
ii) (∀) (An)n∈N⊂ K ⇒ U An ∈ K .
n ∈Ν
Se constată că orice corp borelian de mulţimi este şi corp de mulţimi; reciproca nu este
adevărată.
Proprietăţile deduse pentru corpul de părţi K se transpun şi pentru corpul borelian şi
nu vom insista asupra acestui lucru.
Cel mai simplu σ - corp de părţi ale lui Ω este chiar ℘(Ω).
Definiţie. O mulţime Ω înzestrată cu un corp K (corp borelian K) de părţi se numeşte câmp
(câmp borelian) de evenimente. Vom nota acest câmp de evenimente ⎨Ω,K⎬.
Definiţie. Un sistem de evenimente A1,A2,…,An cu proprietatea că Ai∩Aj=Φ dacă i≠j,
n
i,j∈{1,2,…,n}, U A = Ω spunem
i =1
i că formează un sistem complet de evenimente sau o

desfacere a lui Ω.
Să considerăm acum o mulţime arbitrară înzestrată cu un corp de părţi. Presupunem că
Ω este cel mult numărabilă. În acest caz, elementele lui Ω le vom numi evenimente
elementare, iar Ω însuşi evenimentul sigur.
Dacă cardΩ = n, atunci Ω={ω1,ω2,…,ωn}, iar corpul K=℘(Ω) şi are 2n evenimente
care se construiesc ţinând seama de proprietăţile lui K:
∅ în număr de Cn0
{ω1},{ω2},…,{ωn} în număr de C n1
{ω1,ω2},{ω1,ω3},…,{ωn-1,ωn} în număr de C n2
{ω1,ω2,ω3},…,{ωn-2,ωn-1,ωn} în număr de C n3
…………
{ω1,ω2,…,ωn- în număr de C nn−1
1},…,{ω2,ω3,…,ωn}
{ω1,ω2,…,ωn} = Ω în număr de Cnn
În total, corpul K conţine Cn0 + C n1 +…+ C nn−1 + Cnn = (1+1)n = 2n evenimente.

8
11
1.2. Câmp de probabilitate

Până acum suntem în măsură să descriem evoluţia unui fenomen, a unui experiment în
limbajul evenimentelor, dar nu suntem în măsură să putem pune în evidenţă legităţile
specifice. Pentru a putea face pasul către acest lucru, va trebui să cuantificăm evenimentele,
ataşând fiecărui eveniment o “probabilitate” de apariţie, adică un număr cuprins între zero şi
unu. Vom da şi vom dezvolta definiţia axiomatică a probabilităţii, însă înainte ce aceasta vom
da şi definiţia clasică şi cea statistică a probabilităţii, aşa cum au apărut ele din punct de
vedere istoric.
Definiţie (definiţia clasică a probabilităţii). Se numeşte probabilitate a evenimentului A şi se
notează P(A), raportul dintre numărul m de rezultate favorabile producerii evenimentului A şi
numărul total de n rezultate ale experimentului, considerate egal posibile.
m
P(A) =
n
Din definiţia dată rezultă imediat că probabilitatea definită astfel are următoarele proprietăţi:
1) 0 ≤ P(A) ≤ 1 oricare ar fi evenimentul A, căci 0 ≤ m ≤ n.
2) P(Φ)=0, P(Ω)=1, căci evenimentului imposibil îi corespunde m=0, iar evenimentului sigur
m=n.
3) P(A∪B) = P(A) + P(B), dacă A∩B=Φ
m1 m2 m1 + m2
P(A) = , P(B) = , P(A ∪ B) = P(A) + P(B) = , m1 + m2 ≤ n
n n n
4) P(A) = 1 - P(A)
5) Dacă A⊂B, atunci P(A) ≤ P(B).
Alături de noţiunea de probabilitate, noţiunea de frecvenţă relativă este altă noţiune
fundamentală în teoria probabilităţilor. Frecvenţa relativă de apariţie a evenimentului A este
raportul dintre numărul probelor în care evenimentul A s-a produs şi numărul total, n, de
probe efectuate. Observaţii statistice îndelungate au dovedit că dacă un experiment se repetă
de un număr mare de ori, se produce o stabilitate a frecvenţei relative în sensul că ea oscilează
tot mai strâns în jurul probabilităţii de apariţie a evenimentului considerat. În acest mod s-a
impus definiţia statistică a probabilităţii:
n(A)
P(A) = lim ,
n→∞ n
unde n(A) este numărul de apariţii a evenimentului A în cele n probe independente.
Să considerăm un câmp de evenimente {Ω,K} şi să introducem definiţia axiomatică a
probabilităţii.
Definiţie. Se numeşte probabilitate pe câmpul de evenimente {Ω,K} o funcţie de mulţime
P:K→R+ care satisface următoarele axiome:
i) (∀) A∈K ⇒ P(A) ≥ 0
ii) P(Ω) = 1
iii) (∀) A,B ∈ K, A∩B = Φ ⇒ P(A∪B)=P(A)+P(B)
Observaţie. Axioma iii) este echivalentă cu axioma iii’): Dacă A1,A2,…,An ∈ K, Ai∩Aj=∅,
n n
i≠j, i,j∈{1,2,…,n} ⇒ P(U A ) = ∑ P(Ai) . Demonstraţia este imediată şi o lăsăm în seama
i =1 i=1
cititorului.
Definiţie. Un câmp de evenimente {Ω,K} înzestrat cu o probabilitate P se numeşte câmp de
probabilitate şi-l vom nota {Ω,K,P}.

9
12
Definiţie. O probabilitate aditivă σ (sau complet aditivă) pe câmpul borelian de evenimente
{Ω,K} este o funţie de mulţime P:K→R+ care satisface axiomele:
i) (∀) A∈K ⇒ P(A) ≥0
ii) P(Ω) = 1
iii) (∀) (An)n∈N⊂K, Am∩An=∅, m ≠ n, m,n ∈ N ⇒ P( U An) = ∑ P(An) .
n ∈N n ∈N

Prin definiţie, un câmp borelian de evenimente {Ω,K} înzestrat cu o probabilitate P complet


aditivă, se numeşte câmp borelian de probabilitate şi-l vom nota {Ω,K,P}.
Exemplu. Fie Ω = {ωi}i∈I unde I este o mulţime de indici cel mult numărabilă. În acest caz,
K=℘(Ω) şi fie (pi)i∈I o familie de numere reale nenegative astfel încât ∑ pi = 1 .
i∈I

Considerăm A∈K, A={ϖh, h∈H⊂I}; punem P(A)= ∑ ph . Atunci, {Ω,K,P} este un


h ∈H

câmp borelian de probabilitate. Evenimentele {ωi}i∈I sunt evenimente elementare şi


cunoaşterea probabilităţilor evenimentelor elementare pi=P({ωi}), i∈I determină complet
probabilitatea oricărui eveniment A∈ K.
Un caz particular se obţine de aici când Ω este o mulţime finită, Ω={ωi, i=1,2,…,n}.
1
Să considerăm familia finită (pi) 1≤ i ≤ n astfel încât pi = P({ωi}) = , i=1,2,…,n.
n
m(A)
Atunci, pentru orice A∈℘(A) = K, P(A) = , unde m(A) este numărul evenimentelor
n
elementare ce compun pe A; m(A) = card A.
card A
În acest fel, P(A) = şi am căzut peste definiţia clasică a probabilităţii.
card Ω
Să dăm acum o serie de proprietăţi importante ale probabilităţii, care se obţin din
definiţiile date.
Propoziţie. Probabilitatea introdusă mai sus are următoarele proprietăţi:
1) P(B-A) = P(B) - P(A∩B)
2) P(B-A) = P(B) - P(A) şi P(A) ≤ P(B), dacă A⊂B
3) P( A ) = 1-P(A)
4) P(Φ) = 0
5) 0 ≤ P(A) ≤ 1
6) P(A∪B) = P(A) + P(B) - P(A∩B), P(A∪B) ≤ P(A) + P(B)
7) P(A∆B) = P(A) + P(B) - 2P(A∩B)
n n n
8) P(U Ai) = ∑ P(Ai) - ∑ P(Ai ∩ Aj) + ∑ P(A ∩ A ∩ A )+...+(-1)
i j k
n-1
P(I Ai)
i=1 i=1 i< j i< j<k i=1
n n
9) P(U Ai) ≤ ∑ P(Ai)
i=1 i=1
Demonstraţie:
1) B=(B-A) ∪ (A∩B); (B-A) ∪ (A∩B) = ∅ şi, deci: P(B) = P(B-A) + P(A∩B)
2) B = A∪(B-A); A∩(B-A) = ∅
P(B) = P(A) + P(B-A)
Cum P(B-A) ≥ 0 ⇒ P(A) ≤ P(B)
3) A ∪ A = Ω; A ∩ A = ∅; P(A) + P( A ) = 1
4) Ω ∪ ∅ = Ω; Ω ∩ ∅ = ∅; P(Ω) + P(∅) = P(Ω)
5) Φ ⊂ A ⊂ Ω şi, folosind afirmaţia 2) rezultă afirmaţia
6) A ∪ B = A ∪ (B-A); A ∩ (B-A) = ∅

10
13
P(A∪B) = P(A)+ P(B-A) = P(A) + P(B)-P(A∩B). Cum P(A∩B)≥0 ⇒ P(A∪B) ≤ P(A) + P(B)
7) A∆B = (A-B)∪(B-A) şi (A-B)∩(B-A) = ∅.
Deci, P(A∆B) = P(A-B)+P(B-A) = P(A)+P(B)-2P(A∩B)
8) Egalitatea este cunoscută sub numele de formula lui PoincarJ. O vom demonstra prin
inducţie. Pentru n=2 este proprietatea 6), pe care am demonstrat-o. S-o presupunem
adevărată pentru n şi să arătăm că se menţine pentru n+1:
n+1 n n n n
P(U Ai) = P((U Ai) ∪ An + 1) = P(U Ai) + P(An + 1) - P( U (Ai ∩ An + 1)) = ∑ P(Ai) -
i=1 i=1 i=1 i=1 i=1
n
⎡ n
− ∑ P(Ai ∩ A j) + ∑ P(A ∩ A ∩ A )+...+(-1)
i j k
n-1
P(I Ai) + P(An + 1) - ⎢∑ P(Ai ∩ An + 1) -
i< j i< j<k i=1 ⎣ i=1
n n+1
− ∑ P(Ai ∩ Aj ∩ An + 1)+...+(-1) n-1 P(I Ai ∩ An + 1)] = ∑ P(A)-
i ∑ P(Ai ∩ A)j + ∑ P(Ai ∩ Aj ∩ Ak) +
i< j i=1 i=1 i< j i< j< k
n+1
+...+(-1) n P( I Ai).
i=1
n +1 n n +1
P(U Ai) ≤ P(U Ai) + P(An + 1) ≤ ∑ P(Ai) , deoarece:
i=1 i=1 i=1
n n n
P(U Ai) ≤ ∑ P(Ai) şi P((U Ai) ∩ An + 1) ≥ 0.
i=1 i=1 i=1
Pentru inegalitatea de la punctul 8) considerăm:
B1=A1
B2=A2-A1
… Bi∩Bj=∅, i≠j
n −1
Bn=An- U A ,
i =1
atunci:
n n n
P(U Bi) = ∑ P(Bi) ≤ ∑ P(Ai)
i=1 i =1 i=1
n n n n
Cum U B =U A , i i rezultă: P(U Ai) ≤ ∑ P(Ai) .
i =1 i =1 i =1 i =1
Propoziţie

a) Dacă (An)n∈N este un şir descendent de evenimente, atunci: lim P(An) = P(I An) .
n →∞
n =1

b) Dacă (An)n∈N este un şir ascendent de evenimente, atunci: lim P(An) = P(U A n ) .
n →∞
n=1
Demonstraţie:
a) Şirul fiind descendent, înseamnă că An⊃An+1, n∈N. Să presupunem mai întâi că

IA n = ∅; atunci: An = U (Ak - Ak + 1) şi P(An) = ∑ [P(Ak) - P(Ak + 1)] reprezintă


n ∈N k≥n k =n

restul seriei convergente P(A1) = ∑ [P(Ak) - P(Ak + 1)] .
k =1

11
14
∞ ∞
Deci, lim P(An) = P(lim An) = P(I An) = P(∅)=0. Dacă IA n = B ≠ ∅, construim şirul
n →∞ n →∞
n =1 n=1

descendent (Bn)n∈N, Bn=An-B, n∈N, care are proprietatea: IB
n =1
n = ∅.

Deci, lim P(Bn) = P( lim Bn) = 0 . Dar, P(Bn)=P(An-B)=P(An)-P(B).


n →∞ n →∞

Prin trecerea la limită se obţine lim P(An) = P(B) = P(I An) .
n →∞
n =1

b) Şirul (An)n∈N fiind ascendent, înseamnă că An⊂An+1, n∈N şi lim An = U An . Considerăm
n →∞
n =1

şirul (An) n∈N, care este un şir descendent, şi, atunci:


∞ ∞ ∞
lim P(An) = P( lim An )= P(I An) = P(U An) sau lim[1- P(An)] = 1 − P(U An) , de unde
n →∞ n →∞ n →∞
n =1 n =1 n =1
rezultă imediat afirmaţia.
Afirmaţia din propoziţia anterioară mai este cunoscută sub numele de axioma
continuităţii.
Acest rezultat va fi utilizat în demonstraţia unor proprietăţi ale funcţiei de repartiţie.
Acum, însă, vom arăta că un câmp de probabilitate în care probabilitatea este finit aditivă
şi, în plus, se adaugă axioma continuităţii devine un câmp borelian de probabilitate.
Într-adevăr, dacă (An)n∈N ⊂ K este un şir de evenimente incompatibile două câte două,
n
Ai∩Aj=∅, i≠j, i,j∈N şi dacă notăm A = UA
n∈Ν
n şi Bn = A - U Ak , atunci A,Bn∈K şi
k =1

Bn+1⊂Bn, n∈N.
Evident I Bn = ∅ şi deci lim P(B n ) = 0.
n →∞
n ∈Ν
n n n
Însă P(Bn)=P(A- U Ak) = P(A) - ∑ P(Ak) . lim P(Bn) = P(A)- lim ∑ P(Ak) = 0 .
n →∞ n →∞
k =1 k =1 k =1
n
Deci P(A) = P( U An) = lim ∑ P(Ak) = ∑ P(An) , adică P( U An) = ∑ P(An) , ceea ce
n →∞
n∈Ν k =1 n ∈Ν n ∈Ν n ∈Ν
dovedeşte afirmaţia.

Să punem în evidenţă o inegalitate importantă, cunoscută sub numele de inegalitatea


lui Boole.
Fie familia finită de evenimente (Ai) 1 ≤ i ≤ n;
n n n
atunci: P(I Ai) ≥ 1 - ∑ P(Ai) = ∑ P(Ai) - (n - 1) .
i=1 i=1 i=1
Demonstraţie:
n n n n n n
P(I Ai) = 1 - P(I Ai) = 1 − P(U Ai ) ≥ 1 − ∑ P(Ai) = 1 - ∑ [1 - P(Ai)] = ∑ P(Ai) - (n - 1)
i=1 i=1 i=1 i=1 i =1 i=1

12
15
1.3. Probabilitate condiţionată

Fie {Ω,K,P} un câmp de probabilitate şi A∈K, astfel încât P(A)>0.


Definiţie. Numim probabilitate condiţionată de evenimentul A a evenimentului B şi o notăm
P(A ∩ B)
P(B/A) expresia: P(B / A) = , P(A)>0.
P(A)
Propoziţie. P(. / A) este o probabilitate definită pe câmpul de evenimente {Ω,K} sau, altfel
spus, {Ω,K,P(. / A)} este un câmp de probabilitate.
Demonstraţie: este suficient să arătăm că funcţia de mulţime P(. / A) satisface axiomele i),
ii), iii).
P(A ∩ B)
i) Cum P(B / A) = şi 0 ≤ P(A∩B) ≤ P(A), rezultă că P(B / A) ≥ 0, P(A)>0.
P(A)
ii) Fie A1,A2,…,An∈K, Ai∩Aj=∅, i≠j. Atunci:
n n n

n P(A ∩ (U Ai)) P(U (A ∩ Ai)) ∑ P(A ∩ A ) i n


P(A ∩ Ai) n
P(U Ai / A) = i=1
= i=1
= i=1
=∑ = ∑ P(Ai / A) ,
i=1 P(A) P(A) P(A) i=1 P(A) i=1

deoarece (A∩Ai) ∩ (A∩Aj) = ∅, i≠j.


P(A ∩ Ω ) P(A)
iii) P(Ω / A) = = = 1.
P(A) P(A)
Din definiţia probabilităţii condiţionate rezultă că, dacă A şi B sunt evenimente
reciproc condiţionate, atunci: P(A) P(B/A) = P(B) P(A/B).
n
Fie acum A1,A2,…,An o familie finită de evenimente astfel încât P(I Ai) ≠ 0 ; atunci:
i=1
n
P(I Ai) = P(A1) ⋅ P(A2 / A1) ⋅ P(A3 / A1 ∩ A2)...P(An / A1 ∩ A2∩...∩ An - 1) .
i=1
Într-adevăr, condiţia pusă ne dă posibilitatea să scriem succesiunea de egalităţi:
n
P(I Ai) = P(A1 ∩ A2∩...∩ An - 1) ⋅ P(An / A1 ∩ A2∩...∩ An - 1) =
i=1
= P(A1 ∩ A2∩...∩ An - 2) ⋅ P(An − 1 / A1∩...∩ An − 2) ⋅ P(An / A1∩...∩ An − 1) =
……..
= P(A1) ⋅ P(A2 / A1) ⋅ P(A3 / A1 ∩ A2)⋅...⋅P(An / A1 ∩ A2∩...∩ An − 1) .
Să considerăm desfacerea (sistemul complet de evenimente) D = {Ai, i=1,2,…,n}, Ai∩Aj=∅,
n
i≠j şi U A = Ω , P(Ai)≠0, i=1,2,…,n.
i =1
i

P(Ai) ⋅ P(B / Ai)


Dacă B∈K cu P(B)≠0, atunci P(Ai / B) = n , i=1,2,…,n.
∑ P(A ) ⋅ P(B / A )
i =1
i i

Relaţia dată este cunoscută sub numele de formula lui Bayes şi are numeroase aplicaţii în
statistica matematică. Demonstraţia formulei rezultă printr-un calcul direct:
P(Ai ∩ B) P(Ai) ⋅ P(B / Ai)
P(Ai / B) = =
P(B) P(B)
n n n n
Însă, B = B∩Ω = B ∩ (U Ai) = U (B ∩ Ai) şi P(B) = P(U (B ∩ Ai)) = ∑ P(B ∩ Ai) =
i=1 i=1 i=1 i=1

13
16
n n
= ∑ P(Ai) ⋅ P(B / Ai) . Relaţia P(B) = ∑ P(Ai) ⋅ P(B / Ai) este cunoscută sub numele de
i =1 i=1
formula probabilităţii totale. Înlocuind P(B) în expresia P(Ai / B) se obţine formula lui Bayes.

Evenimente independente.
Să considerăm familia finită de desfaceri D(i) = { A (i)j , j=1,2,…,ni}, i=1,2,…,m.
Definiţie. Spunem că desfacerile D(i), i=1,2,…,m sunt independente câte k, 2 ≤ k < m, dacă,
oricum am lua indicii i1<i2<…<ik şi oricum am lua indicii j1,j2,…,jk, 1 ≤ jk≤ nk, avem
P(A (ij11) ∩ A (ij22) ∩...∩ A (ijkk) ) = P(A (ij11) ) ⋅ P(A (ij22) )⋅...⋅P(A (ijkk) ) .
Desfacerile sunt total independente, dacă:
j1 ∩ A j2 ∩...∩ A jm ) = P(A j1 ) ⋅ P(A j2 )⋅...⋅P(A jm )
P(A (1) (2) (m) (1) (2) (m)

Independenţa în totalitate atrage după sine independenţa câte k (k<m) a desfacerilor şi, în
general, independenţa câte k atrage după sine independenţa câte h a desfacerilor dacă h<k.
Reciproca afirmaţiei nu este adevărată după cum vom constata pe un contraexemplu.
Fie Ω={ω1,ω2,ω3,ω4} şi câmpul de probabilitate {Ω,K,P}, unde P({ωi})=1/4,
i=1,2,3,4. Să considerăm evenimentele A={ω1,ω2}, B={ω1,ω3}, C={ω1,ω4} şi desfacerile
DA={A, A }, DB={B, B }, DC={C, C }. Aceste desfaceri sunt independente două câte două,
deoarece:
1 1 1 1
2 = P(A ∩ B) = P(A) ⋅ P(B) = ⋅ ; P(A ∩ B) = P(A) ⋅ P(B) = 2 ;
2 2 2 2
1 1
P(A ∩ C) = P(A) ⋅ P(C) = 2 ; P(A ∩ C) = P(A) ⋅ P(C) = 2 ;
2 2
1 1
P(A ∩ B) = P(A) ⋅ P(B) = 2 ; P(A ∩ B) = P(A) ⋅ P(B) = 2 ;
2 2
1 1
P(A ∩ C) = P(A) ⋅ P(C) = 2 ; P(A ∩ C) = P(A) ⋅ P(C) = 2 ;
2 2
1 1
P(B ∩ C) = P(B) ⋅ P(C) = 2 ; P(B ∩ C) = P(B) ⋅ P(C) = 2 ;
2 2
1 1
P(B ∩ C) = P(B) ⋅ P(C) = 2 ; P(B ∩ C) = P(B) ⋅ P(C) = 2 .
2 2
1 1
Însă P(A ∩ B ∩ C) = 2 ≠ P(A) ⋅ P(B) ⋅ P(C) = 3 , de unde urmează că DA,DB,DC nu sunt
2 2
independente în totalitate.
Definiţie. Evenimentele A1,A2,…,An sunt independente câte k (k<n) dacă desfacerile
D(i) = {Ai, Ai } i=1,2,…,n sunt independente câte k. Evenimentele A1,A2,…,An sunt
independente în totalitate (simplu independente) dacă desfacerile D(i) = {Ai, Ai } i=1,2,…,n
sunt independente în totalitate.
Dacă avem două evenimente A şi B, atunci, conform definiţiei, evenimentele A şi B
sunt independente, dacă desfacerile D(1) = {A, A }, D(2) = {B, B } sunt independente.
Aceasta înseamnă că:
P(A∩B)=P(A)⋅P(B)
P(A∩ B )=P(A)⋅P( B )
P( A ∩B)=P( A )⋅P(B)
P( A ∩ B )=P( A )⋅P( B )

14
În realitate, pentru independenţa a două evenimente este necesară şi suficientă numai una din
aceste relaţii. Într-adevăr, să presupunem prima relaţie adevărată şi să arătăm că şi celelalte
trei sunt adevărate.
P(A∩ B ) = P(A\A∩B) = P(A)-P(A∩B) = P(A)-P(A)⋅P(B) = P(A)[1-P(B)] = P(A)⋅P( B )
La fel se procedează şi cu celelalte două egalităţi şi absolut analog oricum am alege ca
relaţie de definiţie una oarecare din cele patru relaţii.

1.4. Scheme probabilistice clasice de calcul a probabilităţilor

Vom pune în evidenţă acum unele scheme cu urne, de calcul a probabilităţilor şi la


care se vor reduce multe modele de calcul întâlnite atât practic, cât şi teoretic.
Schema lui Poisson.
Se consideră n urne U1,U2,…,Un, fiecare urnă conţinând bile albe şi bile negre în proporţii
date. Fie ai numărul de bile albe din urna Ui şi bi numărul de bile negre din urna Ui.
Probabilitatea de a extrage o bilă albă din urna Ui este:
ai
pi = , i=1,2,…,n,
ai + bi
iar probabilitatea de a extrage o bilă neagră din aceeaşi urnă este:
bi
qi = , i=1,2,…,n
ai + bi
Evident, pi + qi=1, i=1,2,…,n.
Se extrage câte o bilă din fiecare urnă şi se cere să se afle probabilitatea ca, din cele n bile
extrase, k bile să fie albe.
Să exprimăm evenimentul ce răspunde favorabil situaţiei cerute: fie Ai evenimentul
care constă în faptul că s-a extras o bilă albă din urna Ui şi fie A i evenimentul că s-a extras o
bilă neagră din urna Ui. Evenimentul ce răspunde favorabil este cel constituit din k
evenimente A şi n-k evenimente A . O situaţie posibilă este următoarea:
Ai1 ∩ Ai2∩...∩ Aik ∩ Aik + 1 ∩ Aik + 2∩...∩ Ain
(după ce le-am aranjat în ordine, după cum a apărut bila albă sau bila neagră).
Întrucât rezultatele extragerilor sunt independente, probabilitatea acestui eveniment
este P( Ai1 ∩ Ai2∩...∩ Aik ∩ Aik + 1 ∩ Aik + 2∩...∩ Ain ) = pi1 ⋅ pi2⋅...⋅pik ⋅ qik + 1⋅...⋅qin .
Notăm cu B evenimentul care constă în apariţia de k ori bilă albă şi de n-k ori bilă neagră.
Atunci: B = U ( Ai1 ∩ Ai2∩...∩Aik ∩ Aik + 1 ∩ Aik + 2∩...∩Ain ). Urmează c:ă
(i1 ,i 2 ,...,i n )
k ori A, n-k ori A

P(B) = ∑
(i1 ,i 2 ,...,i n )
P( Ai1 ∩ Ai2∩...∩ Aik ∩ Aik + 1 ∩ Aik + 2∩...∩ Ain ) =
k ori A, n-k ori A

= ∑
(i1 ,i 2 ,...,i n )
pi1 ⋅ pi2⋅...⋅pik ⋅ qik + 1⋅...⋅qin
k ori A, n-k ori A

Constatăm că după aceeaşi regulă se calculează coeficientul lui xk din polinomul


n
P(x) = ∏ (pix + qi) şi, în felul acesta, lucrurile se simplifică mult când este vorba de
i=1
utilizarea efectivă a acestei scheme.
Schema lui Poisson este folosită în rezolvarea problemelor în care se cere
probabilitatea realizării de k ori a unui eveniment într-o experienţă ce constă în efectuarea a n
probe independente, atunci când se cunoaşte probabilitatea realizării evenimentului (şi a
contrarului său) în fiecare din cele n probe.

15
Schema lui Bernoulli (schema bilei revenite).
Să presupunem că cele n urne din schema lui Poisson au aceeaşi compoziţie. În acest caz,
p1 = p2 = … = pn = p
q1 = q2 = … = qn = q
A extrage câte o bilă din fiecare urnă este echivalentă cu a utiliza o singură urnă şi a reface
compoziţia după fiecare extragere, deci de a introduce bila la loc în urnă, după ce s-a constatat
culoarea, amestecându-se bilele pentru a avea rezultate independente. În acest caz, polinomul
P(n) devine P(x) = (px + q) n , iar coeficientul lui xk, care dă probabilitatea căutată va fi
P(n;k) = C kn p k q n-k .
Schema lui Bernoulli (sau schema bilei revenite) rezolvă problemele în care se cere să
se calculeze probabilitatea realizării unui eveniment de k ori într-o serie de n probe
independente, când se cunoaşte probabilitatea realizării evenimentului într-o singură probă.

Schema lui Bernoulli cu mai multe stări (schema multinomială).


Considerăm o urnă U care conţine bile de m culori: C1,C2,…,Cm. Fie pi probabilitatea de a
extrage o bilă de culoarea Ci; ne propunem să calculăm probabilitatea evenimentului ca în n
extrageri independente, punând la loc de fiecare dată bila extrasă să apară de n1 ori culoarea
C1, de n2 ori culoarea C2 ş.a.m.d., de nm ori culoarea Cm.
O situaţie posibilă este următoarea:
∩ A2
A144
1 1∩44
...∩3
A1 ∩ 1 ∩ A2
A244 2∩44
...∩3
A2 ∩ ... ∩ 1 ∩4
Am44 A2m∩...∩4
44 A3m
n 1 ori n 2 ori n m ori

Probabilitatea acestui eveniment este


P( A1 ∩ A1∩...∩ A ∩ A2 ∩ A2∩...∩ A2 ∩ ... ∩ Am ∩ Am ∩...∩ Am ) = p 1n1 ⋅ p n2 2 ⋅...⋅p nmm
cu n1 + n2 +…+ nm = n.
n!
Cum evenimentul considerat se poate exprima în situaţii distincte
n1! n2! ... nm!
(incompatibile două câte două), rezultă că probabilitatea cerută este:
n!
P(n; n1,n2,…,nm) = p 1n1 ⋅ p n2 2 ⋅...⋅p nmm ,
n1! n2! ... nm!
n1 + n2 +…+ nm = n.
Schema bilei nerevenite (cu două culori).
Se consideră o urnă U care conţine a bile albe şi b bile negre. Din această urnă se extrag n
bile, fără a pune bila extrasă înapoi în urnă şi se cere probabilitatea de a avea k bile albe.
Vom utiliza definiţia clasică a probabilităţii. Atunci, numărul cazurilor posibile este
C a + b , iar numărul cazurilor favorabile este C ka C nb − k . Deci, probabilitatea cerută este:
n

C ka C nb − k
Pn; k =
C na + b
Se înţelege că numărul k de bile extrase satisface dubla inegalitate:
max (0,n-b) ≤ k ≤ min (a,n), 0 ≤ n ≤ a+b
Să formulăm problema aşa cum apare ea în controlul de recepţie a loturilor de
produse: presupunem că avem un lot de N produse printre care se găsesc D produse defecte.
Se extrag la întâmplare n produse şi se cere probabilitatea ca printre cele n produse să se
găsească d produse difecte.
Dacă notăm cu P(N,D; n,d) probabilitatea cerută, atunci:
Cn−d Cd
P(N,D; n,d) = N − Dn D , max (0,n+D-N) ≤ d ≤ min (n,D).
CN

16
Schema bilei nerevenite cu mai multe culori.
Considerăm urna U în care se găsesc a1 bile de culoarea C1, a2 bile de culoarea C2 ş.a.m.d., am
bile de culoarea Cm. Se extrag n bile fără a pune la loc bila extrasă (n < a1+a2+…+am) şi se
cere probabilitatea ca în cele n bile extrase să fie α1 de culoarea C1, α2 de culoarea C2
ş.a.m.d., αm bile de culoarea Cm. Folosind tot definiţia clasică a probabilităţii, obţinem
numărul cazurilor posibile egal cu Cαa11++aα22++......++aαmm , α1+α2+…+αm = n, iar numărul cazurilor
favorabile
α1 α2 αm
Cαa11 ⋅ Cαa 22 ...Cαa mm
C a1 ⋅ C a 2 ⋅...⋅C a m . Deci, P(n; α1,α2,…,αm) = .
Cαa11++aα22+...
+...+ α m
+ am

Exemplu. Trei întreprinderi trimit acelaşi tip de piese într-un depozit central, în proporţie de
5; 3; 2. Cele trei întreprinderi au rebuturi în cantitate de 1%, 3%, respectiv 2%. Piese în
valoare de 3600 u.m. s-au dovedit rebuturi. În ce proporţie trebuie împărţită suma de 3600
u.m. pentru cele trei întreprinderi?
Soluţie: notăm cu Ai, i=1,2,3 evenimentul “piesa provine de la întreprinderea i” şi cu B
evenimentul “piesa este rebut”. Atunci:
5 3 2
P(A1) = = 0,5; P(A2) = = 0,3; P(A3) = = 0,2; P(B / A1) = 0,01; P(B / A2) = 0,03;
10 10 10
P(B / A3) = 0,02.
P(Ai) ⋅ P(B / Ai)
Aplicând formula lui Bayes: P(Ai / B) = n , i=1,2,3 obţinem:
∑ P(Ai) ⋅ P(B / Ai)
i =1
5 9 4
P(A1 / B) = ; P(A2 / B) = ; P(A3 / B) = şi, de aici, sumele repartizate pe
18 18 18
întreprinderi sunt 1000 u.m., 1800 u.m., 800 u.m.
Exemplu. Într-o magazie sunt depozitate trei loturi de produse. În primul lot sunt 5% produse
defecte, în al doilea lot 6%, iar în al treilea 3%. Se extrage câte un produs din fiecare lot şi se
cere probabilitatea ca:
a) din cele trei produse extrase unul să fie defect,
b) cel mult un produs să fie defect.
Soluţie: din condiţiile date se obţin probabilităţile:
p1 = 0,05; p2 = 0,06; p3 = 0,03
q1 = 0,95; q2 = 0,94; q3 = 0,97
a) Aplicând schema lui Poisson, probabilitatea căutată este coeficientul lui x din polinomul
(0,05 x + 0,95)(0,06 x + 0,94)(0,03 x + 0,97).
P(3;1) = 0,05 ⋅ 0,94 ⋅ 0,97 + 0,06 ⋅ 0,95 ⋅ 0,97 + 0,03 ⋅ 0,95 ⋅ 0,94.
b) P(3;0) + P(3;1), unde P(3;0) = 0,95 ⋅ 0,94 ⋅ 0,97.
Exemplu. Dintr-o urnă în care sunt aşezate toate numerele întregi de la 1 la 90 se extrag 6
numere. Care este probabilitatea ca să iasă trei din numerele 3; 13; 23; 33; 43; 53.
C 36 ⋅ C 384
Soluţie: se aplică schema bilei nerevenite şi avem P = 6 .
C 90
Exemplu. Într-un lot de piese sunt 15% de calitatea întâia, 65% de calitatea a doua, 18% de
calitatea a treia şi restul cu anumite defecte. Se extrag la întâmplare 20 de piese punându-se la
loc piesa extrasă şi se cere:
a) probabilitatea ca 5 piese să fie de calitatea întâia;
b) probabilitatea ca 5 piese să fie de calitatea întâia, 10 de calitatea a doua, 4 de calitatea a
treia şi 1 necorespunzătoare.

17
Soluţie:
15 85
a) aplicăm schema lui Bernoulli, cu: p= ; q= ; n = 20; k = 5 şi, atunci,
100 100
5 15
⎛ 15 ⎞ ⎛ 85 ⎞
P(20;5) = C ⎜ 5
⎟ ⎜ ⎟
⎝ 100 ⎠ ⎝ 100 ⎠
20

b) se aplică schema multinomială cu p1 = 0,15; p2 = 0,65; p3 = 0,18; p4 = 0,02; n1 = 5;


n2 = 10; n3 = 4; n4 = 1; n1 + n2 + n3 + n4 = 20.
5 10 4
20 ⎛ 15 ⎞ ⎛ 65 ⎞ ⎛ 18 ⎞ ⎛ 2 ⎞
P(20;5;10;4;1) = ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟.
5! ⋅ 10! ⋅ 4! ⋅ 1! ⎝ 100 ⎠ ⎝ 100 ⎠ ⎝ 100 ⎠ ⎝ 100 ⎠
Exemplu. Se reia problema din exemplul anterior, presupunând că numărul produselor din lot
este 100, iar extragerile se fac fără revenire.
Soluţie:
5
C15 C1585
a) se aplică schema bilei nerevenite cu două culori şi se obţine P = 20
C100
b) se aplică schema bilei nerevenite pentru o urnă cu mai multe culori şi avem
5
C15 C10 4 1
65 C18 C 2
P= 20
C100
Exemplu. Să considerăm o schemă electrică alcătuită din n blocuri dispuse în serie:

B1 B2 Bn

Notăm tot cu Bj evenimentul ca blocul Bj să iasă din funcţiune (să se defecteze). Atunci,
schema electrică iese din funcţiune dacă se defectează cel puţin un bloc şi deci probabilitatea
ca schema să iasă din funcţiune este:
n n n
P(U Bj) = ∑ P(Bj) − ∑ P(Bj ∩ Bk) + ∑ P(Bj ∩ Bk ∩ Bl)+...+( −1) n −1 P(I Bj)
j=1 j=1 j< k j< k < l j=1

Exemplu. Considerăm o schemă electrică alcătuită din n blocuri dispuse în paralel:

B1
B2

Bn

Cu aceleaşi notaţii ca în exemplul anterior, se obţine că probabilitatea ca schema să iasă din


n n
funcţiune (eveniment D) este P(D) = P(I Bj) ≥ ∑ P(Bj) − (n − 1) . Dacă admitem că blocurile
j=1 j=1

sunt scrise în ordinea în care este condiţionată defectare, atunci:


n
P(D) = P(I Bj) =P(B1) ⋅ P(B2 / B1) ⋅ P(B3 / B1 ∩ B2)⋅...⋅P(Bn / B1 ∩ B2∩...∩ Bn − 1)
j=1

18
Exemplu. Să considerăm o schemă electrică alcătuită din blocuri serie-paralel, aşa cum este
indicată în schema de mai jos:
B11 B21 Bm1
B12 B22 Bm2

B1n1 B2n2 Bmnm

Atunci, probabilitatea de defectare (păstrându-se semnificaţia evenimentelor) este dată de:


m ni m ni ni nk m ni
P(D) = P( U ( I Bij)) = ∑ P( I Bij) − ∑ P( I Bij ∩ I Bkj)+...+( −1) m −1 P( I (I Bj))
i =1 j=1 i =1 j=1 i< k j=1 j=1 i =1 j=1

Exemplu. Să considerăm acum o schemă electrică alcătuită din blocuri dispuse paralel-serie,
ca în schema de mai jos:
B11 B21 B1n1
B12 B22 B2n2

B1n1 B2n2 Bmnm

Atunci, probabilitatea de defectare este dată de:


m ni m ni
P(D) = P( I ( U Bij)) ≥ ∑ P( U Bij) − (m − 1) =
i =1 j=1 i =1 j=1

m ⎡ ni ni

= ∑ ⎢∑ P(Bij) − ∑ P(Bij ∩ Bik)+...+( −1) P(I Bij)⎥ − (m − 1)
n i −1

i =1 ⎣ j=1 j< k j=1 ⎦

19
Capitolul 2

VARIABILE ALEATOARE. FUNCŢII ŞI DENSITĂŢI DE REPARTIŢIE

2.1. Variabile aleatoare

Noţiunea de variabilă aleatoare este fundamentală în teoria probabilităţilor.


Considerată intuitiv, legată de experiment, variabila aleatoare se poate defini ca fiind o
funcţie reală pe mulţimea rezultatelor unui experiment. Cu alte cuvinte, valorile acestei funcţii
sunt luate după cum s-a realizat un anumit eveniment, pentru un experiment dat.
Să considerăm experimentul care constă în aruncarea cu două zaruri şi în care ne
interesează suma punctelor obţinute. Dacă notăm cu Sk evenimentul care constă în faptul că la
o aruncare a apărut suma k, k=2,3,…,12, atunci variabila aleatoare X, care este o funcţie reală
pe mulţimea experimentelor {Sk, k=2,3,…,12}, are valorile X(Sk)=k. Acest lucru poate fi
sintetizat astfel:

⎛ S2 S3 S4 S5 S6 S7 S8 S9 S10 S11 S12⎞


X: ⎜ ⎟
⎝ 2 3 4 5 6 7 8 9 10 11 12 ⎠

Dar rezultatele Sk, 2 ≤ k ≤ 12 apar cu probabilităţile

P(S2)=1/36; P(S3)=2/36; P(S4)=3/36; P(S5)=4/36;


P(S6)=5/36; P(S7)=6/36; P(S8)=5/36; P(S9)=4/36;
P(S10)=3/36; P(S11)=2/36); P(S12)=1/36

şi atunci variabila aleatoare X poate fi scrisă:

⎛ 2 3 4 5 6 7 8 9 10 11 12 ⎞
⎜ ⎟
X: ⎜ ⎟,
⎜⎜ 1 2 3 4 5 6 5 4 3 2 1 ⎟⎟
⎝ 36 36 36 36 36 36 36 36 36 36 36 ⎠

ceea ce conduce la faptul că o variabilă aleatoare este o funcţie reală ale cărei valori sunt luate
cu probabilităţile corespunzătoare unui sistem complet de evenimente.
Din exemplul considerat rezultă că prin intermediul variabilelor aleatoare,
evenimentele pot fi descrise cu ajutorul unor valori numerice reale, care în general sunt
rezultatul unor observaţii.
Vom da acum definiţia riguroasă din punct de vedere matematic a variabilei aleatoare
cu care vom opera în continuare. Să considerăm câmpul de probabilitate {Ω,K,P} dat şi să
notăm cu R mulţimea numerelor reale şi cu B tribul mulţimilor boreliene1 de pe R, astfel
încât (R,B) este un câmp complet aditiv.

1
Tribul mulţimilor boreliene de pe dreapta reală este cel mai mic corp care conţine toate mulţimile deschise de
pe dreaptă.

20
Definiţie. Aplicaţia X:Ω→ R se numeşte variabilă aleatoare dacă X-1(B)∈K, (∀)B∈Β.
Observăm că dacă luăm B=(a,∞) atunci X-1(B)=X-1(a,∞)={w:X(w)∈(a,∞)}={ω:X(ω)>a},
a∈R arbitrar.
Se demonstrează că definiţia introdusă mai sus este echivalentă cu definiţia de mai jos:

Definiţie. Aplicaţia X:Ω→ R se numeşte variabilă aleatoare dacă: {ω: X(ω) > a}∈ K,
(∀) a∈R.

În cele ce urmează vom folosi această definiţie şi adesea vom scrie prescurtat:
{ω: X(ω)>a} = {X > a}.
Având în vedere faptul că variabilele aleatoare dau posibilitatea scrierii evenimentelor
cu ajutorul lor, punem în evidenţă următoarea propoziţie:

Propoziţie. X:Ω→ R este variabilă aleatoare dacă şi numai dacă este adevărată una din
afirmaţiile
(i) {ω:X(ω) ≥ a}∈K, (∀) a∈R
(ii) {ω: X(ω) < a}∈K, (∀) a∈R
(iii) {ω: X(ω) ≤ a}∈ K, (∀) a∈R
Demonstraţie: se constată că :

1 1
{ω:X(ω) ≥ a} = I {ω:X (ω ) > a − }. Însã, {ω:X(ω ) > a - } ∈ K, n = 1,2, ( ∀ )a ∈R,
n =1 n n

1
I {ω: X (ω ) > a − } ∈ K , ( ∀ )a ∈R
n =1 n

Cum {ω:X(ω) < a} = CΩ{ω:X(ω) ≥ a}∈K


{ω:X(ω) ≤ a} = CΩ{ω:X(ω) > a}∈K,
ceea ce demonstrează implicaţia (⇒). Implicaţia (⇐) rezultă în acelaşi mod. De aici rezultă o
observaţie importantă:

Observaţie. Dacă X este o variabilă aleatoare definită pe {Ω,K,P}, atunci, pentru orice
a,b∈R, a<b, avem:
X-1({a})∈K, X-1([a,b))∈K, X-1([a,b])∈K, X-1((a,b))∈K.
Pentru exemplificare,

X-1((a,b))={ω: a< X(ω) < b} = {ω: X(ω) > a} ∩ {ω: X(ω) < b}.

Ne interesează să vedem dacă, în urma compunerii de variabile aleatoare, obţinem tot


variabile aleatoare, răspuns care se va desprinde din teoremele ce urmează:

Teoremă. Dacă X este variabilă aleatoare, iar b∈R, atunci:


(1) X + b
(2) bX
(3) |X|
(4) X2
1
(5) , dacă X≠0
X

21
sunt variabile aleatoare.
Demonstraţie: Se vede imediat că toate aplicaţiile (1) - (5) sunt de la Ω→R. Rămâne să
arătăm că este îndeplinită şi cea de a doua cerinţă.

(1) {ω :( X + b)(ω ) > a} = {ω : X (ω ) + b > a} = {ω : X (ω ) > b − a} ∈ K


⎧ a
⎪⎪{ω : X(ω ) > b }, b > 0
( 2 ) {ω : bX(ω ) > a} = ⎨
⎪{ω : X (ω ) < a }, b < 0
⎩⎪ b
⎧O, / dacã a < 0
(3) {ω :| X(ω )| > a} = ⎨
⎩{ω : X(ω ) > a} ∪ {ω : X(ω ) < -a}, a ≥ 0
⎧O, / dacã a < 0
( 4) {ω:X 2 (ω ) > a} = ⎨
⎩{ω:| X(ω )|> a }, a ≥ 0

⎪{ω : X (ω ) > 0}, a = 0

1 ⎪ 1
(5) {ω : > a} = ⎨{ω : X (ω ) > 0} ∩ {ω : X (ω ) < }, a > 0
X(ω ) ⎪ a
⎪ 1
⎪⎩ {ω : X (ω ) > 0} ∪ [{ω : X (ω ) < 0 } ∩ {ω : X (ω ) < }], a < 0
a
Deci toate cele cinci aplicaţii sunt variabile aleatoare. Următoarea propoziţie va da
posibilitatea să compunem diverse variabile aleatoare.

Propoziţie. Dacă X şi Y sunt variabile aleatoare, atunci

{ω:X(ω) > Y(ω)}∈K, {ω:X(ω) ≥ Y(ω)}∈K, {ω:X(ω) = Y(ω)}∈K.

Demonstraţie. Cum X,Y sunt variabile aleatoare reale şi X(ω) > Y(ω), există un număr real r
astfel încât X(ω) > r’ > Y(ω). Fie (rk)k∈N⊂Q şi (r’k)k∈N⊂Q, rk¾ r, r’kÀ r. Atunci:

{ω:X(ω) > Y(ω)} = I [{ω: X (ω ) > r } ∩ {ω: Y (ω ) < r }]


k ∈Ν
k k
'

şi, de aici, rezultă că:


{ω:X(ω) > Y(ω)} ∈ K

Celelalte două afirmaţii rezultă din faptul că


{ω:X(ω) ≥ Y(ω)} = CΩ{ω:Y(ω) > X(ω)}
şi
{ω:X(ω) = Y(ω)} = {ω:X(ω) ≥ Y(ω)} ∩ {ω:X(ω) ≤ Y(ω)},

ceea ce dovedeşte afirmaţia.


Putem acum să dăm o teoremă de compunere a două variabile aleatoare.

Teoremă. Dacă X şi Y sunt variabile aleatoare, atunci


(1) X - Y
(2) X + Y
(3) XY

22
X
(4) , dacă Y≠0
Y
sunt variabile aleatoare.
Demonstraţie.
(1) Este clar că X - Y:Ω→ R.. Cum {ω:X(ω) - Y(ω) > a} = {ω:X(ω) > Y(ω) + a} ∈ K
conform cu propoziţiile anterioare, rezultă că X - Y este variabilă aleatoare.

(2) Deoarece X + Y = X - (-Y) am redus cazul acesta la cazul (1).


1
(3) XY = [(X + Y) 2 − (X − Y) 2 ] . Cum X + Y, X - Y şi pătratele lor sunt variabile aleatoare,
4
rezultă afirmaţia.
X 1
(4) = X⋅ şi, deci, raportul este tot o variabilă aleatoare.
Y Y

În mulţimea variabilelor aleatoare, un rol important îl au acelea care pot lua o mulţime
finită sau numărabilă de valori.

Definiţie. Spunem că variabila aleatoare X este de tip discret dacă ia o mulţime de valori cel
mult numărabilă.
Un exemplu de variabilă aleatoare discretă cu o mulţime numărabilă de valori este
variabila aleatoare Poisson:
⎛k ⎞
⎜ −λ k ⎟
X :⎜ e λ ⎟
⎜ , k = 0,1, 2,...⎟
⎝ k! ⎠
Constanta λ>0 este parametrul repartiţiei (în momentul în care avem o variabilă de tip discret
⎛ xk ⎞
şi am dat X : ⎜ ⎟ spunem că avem o repartiţie; în exemplul dat este repartiţia Poisson
⎝ pk , k ∈ I ⎠
de parametru λ>0).

Definiţie. Spunem că variabila aleatoare X este simplă dacă poate lua numai un număr finit
de valori.

Ca exemplu de variabilă aleatoare simplă, să considerăm variabila binomială:


⎛k ⎞
X : ⎜ p k n− k ⎟.
⎝ Cn p q , k = 0,1, 2,..., n⎠

Denumirea derivă din faptul că P(X=k) = C kn p k q n − k sunt tocmai termenii din dezvoltarea
binomului (p + q)n.
Variabila aleatoare simplă
⎧1, dacã ω ∈ A
IA(ω ) = ⎨
⎩0, dacã ω ∈ CΩA
o vom numi variabilă aleatoare indicator al mulţimii A.

23
Dacă variabila aleatoare X ia valorile x1,x2,…,xn pe mulţimile A1,A2,…,An respectiv,
unde (Ai)1≤i≤n constituie o partiţie a lui Ω (sistem complet de evenimente), adică Ai∩Aj = ∅
n
dacă i≠j şi U A = Ω , atunci putem scrie:
i =1
i

n
X (ω ) = ∑ xi I Ai (ω ), ω∈R.
i =1
Rezultatul care urmează ne va da posibilitatea să aproximăm variabilele aleatoare
oarecare cu ajutorul variabilelor aleatoare simple.
Teoremă. Dacă X este o variabilă aleatoare oarecare, atunci există un şir crescător (Xn)n∈N*
de variabile aleatoare simple convergent către X.

Demonstraţie. Să presupunem mai întâi că X ≥ 0; atunci, pentru orice n∈N*, să punem:


⎧i − 1 i -1 i
⎪ n , dacã n ≤ X (ω ) < n , i = 1,2,..., n ⋅ 2
n
Xn(ω ) = ⎨ 2 2 2
⎪⎩n, dacã X(ω ) ≥ n

Din modul cum am definit Xn rezultă că este o variabilă aleatoare simplă, oricare ar fi n∈N*,
iar şirul (Xn)n∈N* este crescător.
Dacă X(ω) < ∞, atunci:
i i −1 1
0 ≤ X (ω ) − Xn(ω ) ≤ n − n = n
2 2 2

şi, de aici: lim Xn (ω ) = X (ω ) , uniform în raport cu ω.


n →∞

Dacă X(ω) = ∞, atunci Xn(ω) = n, pentru orice n∈N* şi deci lim Xn(ω ) = X (ω ) .
n →∞

Dacă X nu este nenegativă, atunci ea poate fi pusă sub forma X = X+ - X-, unde
X = sup (X,0), X- = -inf (X,0), care sunt variabile aleatoare nenegative cărora li se poate
+

aplica rezultatul menţionat, ceea ce demonstrează complet teorema.

2.2. Funcţia de repartiţie. Densitate de repartiţie.

Proprietăţi. Să considerăm un câmp de probabilităţi {Ω,K,P} şi X o variabilă aleatoare


definită pe acest câmp.

Definiţie. Numim funcţie de repartiţie a unei variabile aleatoare, X, aplicaţia FX: R→[0,1],
definită prin relaţia:
FX(x) = P({ω:X(ω) < x})

Exemplu. Să considerăm variabila aleatoare binomială


⎛k ⎞
X :⎜ k k n− k ⎟
⎝ Cn p q , k = 0,1, 2,..., n⎠
Aplicând definiţia funcţiei de repartiţie, obţinem:

24
⎧0 , x≤0
⎪C 0 p 0 q n , 0 < x ≤1
⎪ n
⎪Cn0 p 0 q n + Cn1 p1q n −1 , 1< x ≤ 2
⎪⎪ k
FX ( x ) = ⎨∑ Cnj p j q n − j , k < x ≤ k +1
⎪ j=0
⎪ n −1 j j n − j
⎪∑ C n p q , n −1 < x ≤ n
⎪ j=0
⎪⎩1 , x>n

S-a obţinut o funcţie în trepte (în scară) cu salturi în punctele 0,1,2,…,n.

Propoziţie. Funcţia de repartiţie a unei variabile aleatoare X are următoarele proprietăţi:

(1) FX( −∞ ) = lim FX(x) = 0; FX(+ ∞ ) = lim FX(x) = 1


x→−∞ x→∞

(2) FX(x1) ≤ FX(x2), dacă x1 < x2 (este nedescrescătoare)

(3) FX(x) = FX(x-0) = lim FX(y) (este continuă la stânga)


y↑ x

Demonstraţie.
(1) Fie şirul (Xn) n∈N, Xn+1 < Xn, n∈N şi lim Xn = -∞ şi să notăm An = {ω:X(ω) < Xn}.
n →∞

Atunci, şirul de evenimente (An) n∈N este descendent, An+1⊂An, n∈N şi IA


n ∈N
n =O/ .

Urmează, atunci, că:


lim P(An) = P(lim An) = P( I An) = 0
n →∞ n →∞
n ∈Ν
Deci, lim P({ω :X(ω ) < xn}) = lim Fx (xn) = F(-∞ ) = 0 .
n →∞ n →∞

Fie acum un şir (x’n) n∈N, crescător, x’n<x’n+1, n∈N cu lim x' n = + ∞ .
n →∞

Notăm Bn={ω:X(ω) < x’n}. Am obţinut un şir ascendent de evenimente (Bn) n∈N, Bn⊂Bn+1,
n∈N şi putem scrie:
lim P(Bn) = P(lim Bn) = P( U Bn ) = 1 ,
n →∞ n →∞
n ∈Ν
adică:
lim P(ω :X(ω ) < xn) = 1 ş i, deci, lim FX(xn) = FX(+ ∞ ) = 1
n →∞ n →∞

(2) Cum x1 < x2, putem scrie:

{ω:x1 ≤ X(ω) < x2} = {ω:X(ω) < x2} - {ω:X(ω) < x1}, {ω:X(ω) < x1}⊂{ω:X(ω) < x2}
P(ω:x1 ≤ X(ω) < x2) = P(ω:X(ω) < x2) - P(ω:X(ω) < x1) = FX(x2) - FX(x1) ≥ 0

(3) Să considerăm şirul (yn)n∈N⊂ R, yn < yn+1, n∈N, yn < x şi lim yn = x .


n →∞

25
Dacă punem An = {ω:yn ≤ X(ω) < x}, observăm că An⊃An+1, n∈N, IA
n ∈Ν
n = O/ şi, din

lim P(An) = P( I An) = 0 , rezultă că: lim P(ω :yn ≤ Xn(ω ) < x) = lim [Fx (x) - Fx (yn)] = 0 ,
n →∞ n →∞ n →∞
n ∈Ν
adică lim Fx (yn) = Fx (x - 0) = Fx (x) .
n →∞

Urmează de aici că, în mod necesar, orice funcţie de repartiţie are proprietăţile
enumerate. Mai mult, orice funcţie cu aceste proprietăţi este o funcţie de repartiţie, deci că
proprietăţile (1),(2),(3) sunt necesare şi suficiente pentru FX funcţie de repartiţie. Ca o
completare la cele de mai sus, dăm unele expresii utile în calcul.

Propoziţie. Dacă X este o variabilă aleatoare şi x1,x2∈R, x1 < x2, atunci:


P(ω:x1 ≤ X(ω) < x2) = FX(x2) - FX(x1)
P(ω:x1 < X(ω) < x2) = FX(x2) - FX(x1) - P(ω:X(ω) = x1)
P(ω:x1 < X(ω) ≤ x2) = FX(x2) - FX(x1) + P(ω:X(ω) = x2) - P(ω:X(ω) = x1)
P(ω:x1 ≤ X(ω) ≤ x2) = FX(x2) - FX(x1) + P(ω:X(ω) = x2).
Demonstraţia rezultă imediat, iar noi o vom da numai pentru una din relaţii, pentru
celelalte făcându-se analog.

{ω:x1 < X(ω) < x2} = {ω:X(ω) < x2} - {ω:X(ω) ≤ x1} =
= {ω:X(ω) < x2} - [{ω:X(ω) < x1} ∪ {ω:X(ω) = x1}].

Luând probabilitatea şi ţinând cont de faptul că {ω:X(ω) ≤ x1} ⊂ {ω:X(ω) < x2}; x1 < x2
şi {ω:X(ω) < x1} ∩ {ω:X(ω) = x1} = ∅ şi se obţine:

P(ω:x1 < X(ω) < x2) = FX(x2) - FX(x1) - P(ω:X(ω) = x1).

Observaţie. P(ω:X(ω) = xi) reprezintă saltul funcţiei de repartiţie FX în punctul xi, i=1,2.
Dacă FX este continuă, atunci P(ω:X(ω) = xi) = 0, i=1,2.
Din definiţia funcţiei de repartiţie rezultă că ea are salturi numai la dreapta. Cum FX
este o funcţie cu variaţia mărginită, cu variaţia totală 1, rezultă că suma tuturor salturilor este
1. Teorema care urmează stabileşte că mulţimea tuturor salturilor ale funcţiei FX este cel mult
numărabilă.

Demonstraţie. Cum suma tuturor salturilor este 1, rezultă că:


1
salturi mai mari ca : cel mult 1
2
1
salturi mai mari ca : cel mult 2
3
…………………………………..
1
salturi mai mari ca : cel mult n
n
………………………………….
Deci, mulţimea tuturor salturilor este o reuniune numărabilă de mulţimi cel mult
numărabile, care este o mulţime cel mult numărabilă.

Observaţie. Unii autori definesc funcţia de repartiţie prin relaţia:


GX(x) = P(ω: X(ω) ≤ x), x∈ R.

26
Deosebirea constă numai în faptul că, definită în acest mod, se modifică proprietatea de
continuitate, funcţia GX fiind continuă la dreapta, spre deosebire de FX care am văzut că este
continuă la stânga.
Aşadar, când se efectuează calcule cu funcţia de repartiţie, va trebui să fim atenţi cum
s-a definit funcţia, dacă aceasta este discontinuă (în cazul funcţiilor de repartiţie continue am
văzut că nu sunt probleme).
Să lămurim un aspect important privind corespondenţa între mulţimea variabilelor
aleatoare şi mulţimea funcţiilor de repartiţie. Din definiţia funcţiei de repartiţie rezultă că
fiecărei variabile aleatoare îi corespunde o singură funcţie de repartiţie. Reciproca, însă, nu-i
adevărată, adică, fiind dată o funcţie de repartiţie, ea nu determină în mod unic variabila
aleatoare. Vom dovedi acest lucru pe baza unui contraexemplu.
Fie câmpul de probabilitate {[0,1], β[0,1], P}, unde P este măsura intervalului. Pe acest
câmp, definim:
⎧ 1 ⎧ 1
⎪⎪1 , ω ∈[0, 2 ) ⎪⎪- 1, ω ∈[0, 2 )
X(ω ) = ⎨ ; Y(ω ) = ⎨
⎪− 1, ω ∈[ 1 ,1] ⎪1 , ω ∈[ 1 ,1]
⎪⎩ 2 ⎪⎩ 2
Se vede imediat că X ≠ Y şi că:
⎧0 , x ≤ -1
⎪⎪ 1
FX(x) = P(ω:X(ω) < x) = ⎨ ,−1 < x ≤ 1
⎪2
⎪⎩1 , x > 1
⎧0 , x ≤ -1
⎪⎪ 1
FY(x) = P(ω:X(ω) < y) = ⎨ ,−1 < x ≤ 1
⎪2
⎪⎩1 , x > 1
Cum FX = FY pe R, rezultă afirmaţia.

Densitate de repartiţie.

Dacă există o funcţie f: R→R+, integrabilă pe R şi astfel încât F(x) = ∫ f(t) dt ,


-∞

atunci vom numi funcţia f densitate de repartiţie a variabilei aleatoare X care are funcţia de
repartiţie F.
Din definiţia dată funcţiei f, rezultă că aceasta are următoarele proprietăţi:
(1) f(x) ≥ 0, x∈R

(2) ∫ f(x) dx = 1
-∞

Se constată imediat că dacă există densitatea de repartiţie f, atunci F este derivabilă şi


F’(x) = f(x), iar probabilitatea ca variabila aleatoare X să ia valori cuprinse între x1 şi x2,
x1<x2 este dată de:
x2

P(ω:x1 ≤ X(ω) < x2) = F(x2) - F(x1) = ∫ f(t) dt


x1

27
Exemplu. Să se determine constanta n astfel încât f: R→R+ definită prin:
⎧0 , x ∉ (0,1)
f(x) = ⎨ a-1 ,
⎩kx (1 - x)
b-1
, x ∈ (0,1)
unde a,b >0 sunt parametri.

Dacă k ≥0, atunci f(x) ≥0, x∈ R. Din condiţia ∫ f(x) dx = 1 rezultă:


-∞
1

k ⋅ ∫ x a-1 (1- x) b-1 dx = 1


0

1 ⎧0 , x ∉ ( 0,1)
1 ⎪ 1
Cum ∫x a-1
(1 - x) b-1
dx = β(a,b), obţinem k =
β (a, b)
şi f(x) = ⎨ x a −1 (1 − x ) b−1 , x ∈ ( 0,1).
0 ⎪⎩ β (a, b)

Variabila aleatoare X care are această densitate de repartiţie, spunem că urmează o lege beta
de parametri a şi b.

Exemplu. Să se verifice că funcţia f: R→R, definită prin relaţia:


⎧a cos x , x ∈[−π / 2, π / 2]
f(x) = ⎨
⎩0 , x ∉[−π / 2, π / 2]
poate fi o densitate de repartiţie; alegând convenabil constanta a, să se determine funcţia de
repartiţie corespunzătoare.
Să luăm a ≥ 0, căci pe intervalul [-π/2, π/2], cos x ≥ 0 şi să punem condiţia
∞ π /2 π /2
1
∫-∞ f(x) dx = 1. În cazul nostru, a-π∫/ 2cos x dx = 1 şi cum -π∫/ 2cos x dx = 2 , rezultă a = 2 .
Atunci,
⎧0 , x ≤ -π / 2
1
∞ ⎪
⎪1
F(x) = ∫ f ( t ) dt = ⎨ (sin x + 1) , - π / 2 < x ≤ π / 2
2 -∞ ⎪2
⎪⎩1 , x>π/2
Dacă X este o variabilă aleatoare de tip discret,
⎛ xn ⎞
X: ⎜ ⎟
⎝ Pn , n ∈ I ⊂ Ν ⎠
Pn = P(ω: X(ω) = xn), n∈I, cel mult numărabilă, atunci:
F(x) = ∑ Pn ,
x n <x

care este o funcţie de repartiţie de tip discret.

2.3. Caracteristici numerice ale funcţiilor de repartiţie.

Fie X o variabilă aleatoare, F funcţia sa de repartiţie şi q∈N, q ≥ 2.

Definiţie. Numim q-cvantile ale variabilei aleatoare X, numerele finite (ci(X))1≤i≤q-1 pentru
q-i
care P(ω:X(ω) ≥ ci(X)) ≥ , P(ω:X(ω) ≤ ci(X)) ≥ i/q, unde 1 ≤ i ≤ q-1.
q

28
Din relaţia
P(ω:X(ω) ≥ ci(X)) + P(ω:X(ω) < ci(X)) = 1

rezultă că q-cvantilele se definesc echivalent:


q-i i
F(ci(X) = 1 - P(ω:X(ω) ≥ ci(X)) ≤ 1 - =
q q
i
F(ci(X) + 0) ≥ , 1 ≤ i ≤ q-1
q
Se constată imediat că, în general, q-cvantilele nu sunt unic determinate. Dar dacă F este
continuă şi crescătoare, atunci q-cvantilele se pot determina în mod unic ca soluţii ale
ecuaţiilor:
i
F(ci(X)) = , 1 ≤ i ≤ q − 1
q
Luând valori particulare ale lui q, obţinem pentru q=2 mediana, pentru q=4 cvartilele,
pentru q=10 decilele, pentru q=100 centilele.
Aşadar, mediana variabilei aleatoare X este numărul real c2(X) care satisface
condiţiile:
1
P(ω:X(ω) ≥ c2(X)) ≥
2
1
P(ω:X(ω) ≤ c2(X)) ≥
2
sau, cu ajutorul funcţiei de repartiţie
1
F(c2(X)) ≤
2
1
F(c2(X)+0) ≥
2

Dacă graficul funcţiei y = F(x) se completează în punctele de discontinuitate cu


rezultatele cuprinse între punctele (x,F(x)) şi (x,F(x+0)), atunci graficul y = F(x) are sau un
1
singur punct sau un segment paralel cu axa OX în comun cu dreapta y = . Punctul comun
2
sau punctele comune sunt toate puncte mediane ale funcţiei de repartiţie F. Când F este
1
continuă şi strict crescătoare, mediana se obţine ca soluţie a ecuaţiei F(x) = (soluţie care
2
este unică).
Dacă există densitatea de repartiţie f(x) atunci se pot determina uşor q-cvantilele cu
ajutorul ecuaţiei:
c i (x)
i
∫-∞ f(x) dx = q , i = 1,2,…,q-1,
sau, echivalent:
c i (x) c 2 (x) cq -1 ( x ) ∞
1
∫ f(x) dx = ∫ f(x) dx = …= ∫( f(x)
-∞ c1 (x) )
dx = ∫ f(x) dx =
cq -2 x
q c q -1 (x)

În cazul q = 2, avem:
me ∞
1
∫ f(x) dx = ∫ f(x) dx = 2
-∞ m2

29
unde me este punctul mediană al repartiţiei.

Definiţie. Fiind dată funcţia de repartiţie F care are densitatea f, orice punct de maxim local
pentru f se numeşte mod (punct modal).
După numărul punctelor de maxim pentru f, avem repartiţii unimodale, bimodale sau
multimodale în general.
În cazul repartiţiilor discrete, punctul modal poartă numele de valoarea cea mai
probabilă.
Dacă valorile variabilei aleatoare X sunt (xn)n∈I, I⊂N şi sunt presupuse a fi aşezate în
ordine crescătoare, notând Pk = P(X=xk), valoarea cea mai probabilă xk este cea care
corespunde probabilităţii Pk ce satisface dubla inegalitate

Pk-1 ≤ Pk ≥ Pk+1.

Exemple.
1) Să se calculeze valoarea mediană pentru repartiţia cu densitatea
⎧λe - λx , x > 0
f(x) = ⎨
⎩0 ,x ≤ 0
2) Să se determine valoarea modală pentru repartiţie N(m,σ).
3) Să se stabilească valoarea cea mai probabilă pentru repartiţiile:
⎛k ⎞
⎛k ⎞ ⎜ ⎟
X: ⎜ k k n − k ⎟ ; Y = ⎜ -λ λ k

⎝ C n p q , k = 0,1,2,..., n⎠ ⎜e , k = 0,1,2,...⎟⎠
⎝ k!
Soluţii.
me
1 1 ln 2
1) ∫ λe - λx dx = conduce la 1 - e - λm e = , de unde me = .
0
2 2 λ
( x − m)2 ( x − m )2
1 − x-m −
2) f(x; m,σ) = e 2σ 2
; f '(x) = - 3 e 2σ 2
= 0 conduce la xmod = m.
σ 2π σ 2π
1
Cum f’’(xmod) = - < 0 rezultă că este vorba de un maxim.
σ 2π
3

k −1 n − k +1
3) C k-1
n p q ≤ C kn p k q n − k ≥ C kn +1 p k +1q n − k −1 ne conduce la np - q ≤ k ≤ np + p,

care este valoarea cea mai probabilă pentru X.


Analog,
λ k-1 λk λ k +1
e -λ ≤ e -λ ≥ e -λ
( k − 1)! k! (k + 1)!

ne conduce la valoarea cea mai probabilă λ-1 ≤ k ≤ λ.

2.4. Vectori aleatori. Funcţii de repartiţie şi densităţi de repartiţie multidimensionale.

Dacă {Ω,K,P} este un câmp de probabilitate şi (Rn,Bn) un câmp complet aditiv, cu


R = Rx⋅ … ⋅xR, Bn = B⋅…⋅B cu semnificaţia menţionată, atunci X:Ω→Rn
n

este o variabilă aleatoare n-dimensională (un vector aleator n-dimensional) dacă

30
X-1(B) = {ω:(X1(ω),X2(ω),…,Xn(ω)) ∈ B}, (∀) B=B1x…x Bn ∈Bn..

Ca şi în cazul unidimensional, vom considera definiţia echivalentă, X:Ω→Rn este


variabilă aleatoare n-dimensională dacă

{ω:X1(ω) < x1, X2(ω) < x2,…,Xn(ω) < xn}∈ K, (∀) (x1,x2,…,xn)∈Rn.

Definiţie. Numim funcţie de repartiţie n-dimensională a variabilei aleatoare vectoriale


X=(X1,X2,…,Xn), funcţia F:Rn→[0,1] definită prin:

FX(x1,x2,…,xn) = P({{ω:X1(ω) < x1, X2(ω) < x2,…,Xn(ω) < xn})

Ca şi în cazul unidimensional, funcţia de repartiţie are o seamă de proprietăţi care-i


sunt specifice şi care o caracterizează:
1) Funcţiile parţiale xk → FX(x1,x2,…,xk-1, xk, xk+1,…,xn), k ∈1, n sunt nedescrescătoare,
adică FX este nedescrescătoare în raport cu fiecare argument.
2) FX este continuă la stânga în raport cu fiecare argument
3) Dacă cel puţin una dintre componente xi → -∞, atunci FX → 0, adică:
lim FX (x1,..., xi - 1, xi, xi + 1,..., xn) = 0
x i →−∞

4) lim FX (x1, x2,..., xn) = 1


x1 →+∞
...
x n →+∞

(dacă toate componentele xj → ∞ , funcţia de repartiţie FX tinde către 1).


5) Pentru orice două n-upluri (x1,x2,…,xn) ∈Rn, (y1,y2,…,yn) ∈Rn astfel încât xj < yj, 1≤j≤n,
are loc:
n n n
FX(y1, y2,..., yn) - ∑ Pi + ∑ Pij − ∑P ijk +...+( −1) n FX(x1, x2,..., xn) ≥ 0
i=1 i < j =1 i < j< k =1

unde:
Pi = FX(y1,…,yi-1,xi,yi+1,…,yn)
Pij = FX(y1,…,yi-1,xi,yi+1,…,yj-1,xj,yj+1,…,yn), 1≤ i ≤ j ≤ n şi aşa mai departe, cu Pijk,…

Proprietatea (5) completează proprietăţile funcţiei de repartiţie, astfel încât orice


funcţie de repartiţie n-dimensională are proprietăţile amintite şi reciproc. Ea reprezintă faptul
că:
P(ω:(X1(ω),X2(ω),…,Xn(ω)) ∈ [x1,y1)⋅[x2,y2)⋅…⋅[xn,yn)) ≥ 0,

iar acest lucru se vede foarte bine în cazul n=2, când ea devine

F(y1,y2) - F(x1,y2) - F(x2,y1) + F(x1,x2) ≥ 0

care, evident, reprezintă probabilitatea de mai jos

P(x1≤X1<y1; x2≤X2<y2) ≥ 0

Să considerăm mulţimea (x1,y1)⋅(x2,y2).

u2

31
y2

x2

0 x1 y1 u1

Cum {ω: x1≤X1(ω)<y1; x2≤X2(ω)<y2} =


= {ω:X1(ω)<y1; X2(ω)<y2} - [{ω:X1(ω)<x1, X2(ω)<y2} ∪ {ω:X1(ω)<y1, X2(ω)<y2}],

iar A = {X1<y1; X2<y2} ⊃ A1∪A2 = {X1<x2; X2<y2} ∪ {X1<y1; X2<x2}

şi A1∩A2 = {X1<x1, X2<x2}≠∅.

Luând probabilitatea şi folosind proprietăţile acesteia, se obţine imediat rezultatul.


Să observăm că există funcţii F:Rn→[0,1] care au proprietăţile (1)-(4) şi care nu pot fi
funcţii de repartiţie, deoarece nu îndeplinesc proprietatea (5). Iată, în cazul n=2, un exemplu
care justifică afirmaţia. Fie F:R2→R definită prin:
⎧0 , dacă x ≤ 0 sau y ≤ 0 sau x + y ≤ 2
F(x, y) = ⎨
⎩1 , în rest
Deci, pe D1={(x,y)⏐x≤0 sau y≤0 sau x+y≤2} F ia valoarea zero, iar pe D2 = C R 2 D1 ia
valoarea 1.

(0,2)
D2
D1
(2,0)

Să luăm acum y1=y2=2; x1=x2=1. În acest caz,


F(2,2) - F(1,2) - F(2,1) + F(1,1) = 1 - 1 - 1 + 0 = -1
şi, deci, expresia dată de (5) nu poate reprezenta probabilitatea unui eveniment.

Să introducem acum noţiunea de densitate de repartiţie n-dimensională.


Dacă există o funcţie f:Rn→R continuă şi integrabilă pe Rn, astfel încât:
x1 x 2 xn

F(x1,..., xn) = ∫ ∫ ... ∫ f (u , u ,..., u ) du du ...du ,


−∞−∞ −∞
1 2 n 1 2 n

atunci funcţia f poartă numele de densitate de repartiţie n-dimensională a vectorului aleator


(X1,X2,…,Xn).
Din definiţia dată, rezultă imediat că funcţia f are proprietăţile:

(i) f(x1,x2,…,xn)≥0 oricare ar fi (x1,x2,…,xn)∈Rn

32
∞ ∞ ∞

(ii) ∫ ∫ ... ∫ f (u , u ,..., u ) du du ...du


−∞−∞ −∞
1 2 n 1 2 n =1

∂ n F(x1, x2,..., xn)


Tot din definiţie rezultă că există şi că f(x1,x2,…,xn)=
∂x1 ∂x2... ∂xn
∂ F(x1, x2,..., xn)
n
.
∂x1 ∂x2... ∂xn

Să considerăm acum câmpul de probabilitate {Ω,K,P}, (Xα)α∈I o familie de variabile


aleatoare (I fiind o familie de indici).

Definiţie. Familia (Xα)α∈I este o familie de variabile aleatoare independente, dacă pentru
orice J⊂I, J finită şi orice familie de mulţimi boreliene (Bα)α∈J are loc relaţia:

P( I X α−1 ( Bα )) = ∏ P( X α−1 ( Bα ))
α ∈J α ∈J

Se poate demonstra următoarea teoremă, importantă în aplicaţii, relativ la


independenţa variabilelor aleatoare.
Teoremă. Condiţia necesară şi suficientă ca (Xα)α∈I să fie independente este ca pentru orice
J⊂I, J finită, să avem:
P( I X α < aα )) = ∏ P( X α < aα )) , aα∈R, α∈J
α ∈J α ∈J

Vom introduce acum noţiunea de funcţie de repartiţie marginală. Dacă F(x1,x2,…,xn)


este funcţie de repartiţie a vectorului aleator (X1,X2,…,Xn) atunci:

lim F ( x1, x 2,..., xi − 1, xi, xi + 1,... xn ) = Fi( xi ), i ∈1, n


x1 →∞
...
xi −1 →∞
xi +1 →∞
...
x n →∞

se numeşte funcţie de repartiţie marginală a variabilei Xi..

Analog, putem introduce o repartiţie marginală relativ la k variabile , 1 ≤ k < n. Astfel,


de exemplu, dacă alegem primele k variabile ale vectorului (X1,X2,…,Xk,…,Xn), atunci

lim F ( x1, x 2,..., xk , xk + 1,... xn ) = Fx 1 , . . . , x k ( x1,..., xk ) ,


x k +1 →∞
...
x n →∞

ceea ce se poate exprima imediat când este vorba de variabilele Xi 1 , Xi 2 ,..., Xi k şi obţinem
FXi1 ,Xi 2 ,...,Xi k ( xi 1 , xi 2 ,..., xi k ) . Acelaşi lucru este valabil în cazul densităţilor de repartiţie n-
dimensionale. Astfel, dacă f(x1,x2,…,xn) este densitatea de repartiţie a vectorului aleator
(X1,X2,…,Xn), atunci densitatea de repartiţie marginală a variabilei Xi este dată de:

33
∞ ∞ n
f Xi (xi) = ∫ ... ∫ fi (x1,..., xi - 1, xi, xi + 1,..., xn)∏ dx j
−∞ −∞ j ≠i
j =1

Desigur că, în mod asemănător, se obţine:


∞ ∞ n
f X1,X2,...,Xk (x1, x2, . . . , xk) = ∫ ... −∞∫ fi (x1,..., xn) j∏
−∞ = k +1
dx j
144 42444 3
n− k

Dacă componentele vectorului aleator X=(X1,X2,…,Xn) sunt variabile aleatoare discrete,


atunci repartiţia n-dimensională este dată de:

⎛ (x i1 , x i2 ,..., x in ) ⎞
( X1, X2,..., Xn ) : ⎜ P
⎜ (i1, i2,..., in) ∈ I1 ⋅ I2⋅...⋅In⎟⎟ ,
⎝ i1,i2,...,in ⎠

Ij, 1 ≤ j ≤ n cel mult numărabile, iar

P = P(X1 = x , X2 = x ,..., Xn = x )
i1,i2,...,in i1 i2 in

Atunci, repartiţia marginală a variabilei Xk este

⎛ x ik ⎞
Xk : ⎜⎜ ik ∈ Ik⎟⎟ ,
⎝ P*...*ik*...* ⎠
unde:

P
i
*...* k*...*
= ∑ P
i1,i2,...,in
i i i i II I I I
( 1,..., k-1, k+1,..., n) ∈ 1⋅ 2⋅...⋅ k-1⋅ k+1⋅...⋅ n

Ca şi în cazul variabilelor aleatoare de tip continuu,

P
i1,i2,...,ik*...*
= ∑ P
i1,i2,...,ik,ik+1,...,in
i i I I
( k+1,..., n) ∈ k+1⋅...⋅ n

Să vedem ce devin aceste relaţii pentru n=2 atât în cazul continuu, cât şi în cel discret.
Dacă (X,Y) este un vector aleator cu funcţia de repartiţie F(x,y) şi densitatea de repartiţie
f(x,y), atunci:

F1(x) = lim F(x, y); F2(y) = lim F(x, y)


y →∞ x →∞
∞ ∞

f1(x) = ∫ f(x, y)dy; f2(y) = ∫ f(x, y)dx


-∞ -∞

În cazul discret, fie repartiţia vectorului (x,y)

34
⎛ (xi, yi) ⎞
(X, Y) : ⎜ i = 1,2,... , m; j = 1,2,..., n⎟ ,
⎝ pij ⎠

pe care să o scriem sub forma tabelului de mai jos:

Y y1 y2 … yj … yn pi*
X
x1 p11 p12 … p1j … p1n p1*
x2 p21 p22 … p2j … p2n p2*

xi pi1 pi2 … pij … pin pi*

xm pm1 pm2 … pmj … pmn pm*
p*j p*1 p*2 … p*j … p*n

unde am pus:

pij=P(X=xi, Y=yj), i=1,2,…,m; j=1,2,…,n


n m
pi* = ∑ pij, i = 1,2,..., m; p * j = ∑ pij, j = 1,2,..., n
j=1 i=1
m n m n

∑∑p = ∑p = ∑p
i=1 j =1
ij
i =1
i*
j =1
* j =1

Cu ajutorul funcţiilor de repartiţie marginale putem exprima acum simplu condiţia de


independenţă a componentelor X1, X2,…,Xn ale unui vector aleator (X1,X2,…,Xn). Deci,
variabilele aleatoare X1,X2,…,Xn sunt independente dacă şi numai dacă
n
F(x1, x2,..., xn) = ∏ Fj(xj) ,
j=1

sau, în cazul în care există densităţi de repartiţie,


n
f(x1, x2,..., xn) = ∏ fj(xj)
j=1

Dacă X1,X2,…,Xn sunt de tip discret vom avea

p =p p ... p ,
i1i2...in i1*...* *i2*...* **...*in

oricare ar fi ik∈Ik, k=1,2,…,n.

Pentru n=2 relaţiile devin:


F(x,y) = F1(x) ⋅ F2(y)
f(x,y) = f1(x) ⋅ f2(y)
Pij = Pi* ⋅ P*j , i = 1, 2, ..., m; j = 1, 2, ..., n
O noţiune importantă pentru aplicaţii o constituie cea de repartiţie condiţionată. Având
în vedere aplicaţiile, precum şi dificultăţile care apar în tratarea acestei noţiuni, ne vom referi
la densitatea de repartiţie condiţionată în cazul continuu şi repartiţie condiţionată în cazul
discret, pentru cazul particular n=2.

35
Fiind dat vectorul aleator (X,Y), se defineşte densitatea de repartiţie a variabilei
aleatoare X condiţionată de Y=y şi pe care o vom nota f(x/y) prin:
f(x, y) f(x, y)
f(x / y) = = ∞
f2(y)
∫ f(x, y) dx
−∞
În mod analog, avem densitatea de repartiţie cu variabile aleatoare y condiţionată de
X = x:
f(x, y) f(x, y)
f(y / x) = = ∞
f1(x)
∫ f(x, y) dy
−∞
În cazul vectorilor aleatori (x,y) cu componentele X şi Y variabile aleatoare discrete,
avem:
⎛ xi / Y = yj ⎞
X / Y = yj : ⎜ i ∈ I⎟ , j ∈ J
⎝ P(X = xi / Y = yj ⎠
şi analog:
⎛ yj / X = xi ⎞
Y / X = xi : ⎜ j ∈J⎟ , i ∈I
⎝ P(Y = yy / X = xi ⎠
P(X = xi, Y = yj) pij
P(X = xi / Y = yj) = p(xi / yj) = =
P(Y = yj) p*j
P(X = xi, Y = yj) pij
P(Y = yj / X = xi) = p(yj / xi) = = , i∈I, j∈J
P(X = xi) pi *

Exemplu. Se consideră vectorul aleator (X,Y) cu densitatea de repartiţie:


⎧⎪ 1
(x + y + 2) , dacă (x, y) ∈(0,2)x(1,3)
f(x, y) = ⎨ 20
⎪⎩ 0 , în rest
Să se determine:
(a) Densităţile de repartiţie marginale;
(b) Funcţiile de repartiţie marginale;
(c) Funcţia de repartiţie a vectorului aleator (X,Y);
(d) Densităţile de repartiţie condiţionate.

Soluţie:
(a) Din definiţia densităţilor de repartiţie marginale rezultă:
∞ ⎧3 1 x+4
⎪∫ (x + y + 2)dy = , x ∈(0,2)
f1(x) = ∫ f(x, y)dy = ⎨ 1 20 10
−∞ ⎪ 0 , x ∉(0,2)

∞ ⎧2 1 y+3
⎪∫ (x + y + 2)dx = , y ∈(1,3)
f2(y) = ∫ f(x, y)dx = ⎨ 0 20 10
−∞ ⎪ 0 , y ∉(1,3)

36

⎪0 ,−∞ < x ≤ 0
x ⎪⎪ 1
(b) F1(x) = ∫ f1(u)du = ⎨ (x 2 + 8x) ,0 < x ≤ 2
−∞ ⎪ 20
⎪1 ,x > 2
⎪⎩

⎪0 ,−∞ < y ≤ 1
y ⎪⎪ 1
F2(y) = ∫ f2(v)dv = ⎨ (y 2 + 6y - 7) ,1 < y ≤ 3
−∞ ⎪ 20
⎪1 ,y> 3
⎪⎩
(c)
x y

F(x, y) = ∫ ∫ f(u, v) du dv =
−∞ −∞


⎪0 , x ∈( −∞,0] sau y ∈(-∞,1]
⎪1
⎪ ( x 2 y + xy 2 + 4 xy − x 2 − 10 x ) , (x, y) ∈(0,2]x(1,3]
⎪ 40
⎪1
= ⎨ ( y 2 + 6 y − 7) , (x, y) ∈(2, ∞ )x(1,3]
⎪ 20
⎪ 1 ( x 2 + 8x ) , (x, y) ∈(0,2]x(3, ∞ )
⎪ 20

⎪⎩1 , (x, y) ∈(2, ∞ )x(3, ∞ )

(d) Densităţile de repartiţie condiţionate:


⎧x + y + 2
f(x, y) ⎪ , x ∈ (0,2)
f(x / y) = = ⎨ 2(y + 3) , (∀) y∈(1,3)
f2(y) ⎪ 0 , x ∉ (0,2)

⎧x + y + 2
f(x, y) ⎪ , y ∈(1,3)
f(y / x) = = ⎨ 2(x + 4) , (∀) x∈(0,2)
f1(x) ⎪ 0 , y ∉(1,3)

2.5. Momente obişnuite şi centrate. Proprietăţi

Asociem acum o serie de caracteristici numerice variabilelor aleatoare, caracetristici


care intervin în mod frecvent în aplicaţii şi care vin să caracterizeze diversele tipuri de legi de
repartiţie. Este vorba de momentele obişnuite şi centrate de diferite ordine.

Definiţie. Numim moment de ordin k al variabilei aleatoare X numărul

37

Mk(X) = ∫x
−∞
k
dF(x) ,

dacă integrala Stieltjes există.


Un caz important pentru aplicaţii este acela în care există densitatea de repartiţie f a
variabilei aleatoare X şi atunci:

Mk(X) =
−∞
∫x k
f(x) dx

(în ipoteza că există integrala Riemann improprie).


Dacă X este variabilă aleatoare discretă, atunci:

Mk(X) = ∑ x kj P(X = xj) ,


j∈J

J cel mult numărabilă, în ipoteza că seria este convergentă.

Definiţie. Numim moment absolut de ordinul k al variabilei aleatoare X numărul Mk(X) ,


dacă acesta există, definit prin:

Mk(X) = Mk(| X| ) = ∫ | x| k dF(x)


-∞

Dacă variabila aleatoare X are densitate de repartiţie, Mk(X) = ∫ | x| k f(x) dx , iar dacă
-∞

X este de tip discret, Mk(X) = ∑ | x j | P(X = xj) .


k

j∈J

Să definim acum momentele centrate, care joacă un rol tot atât de important ca şi cele
obişnuite.

Definiţie. Numim moment centrat de ordinul k al variabilei aleatoare X numărul µk(X),


dacă acesta există, definit prin:

µk(X) = ∫ (x − M(x)) k f(x ) dx


-∞

Dacă variabila aleatoare X are densitatea de repartiţie f(x), atunci:


µk(X) = ∫ (x − M(x)) k f(x ) dx ,


-∞

iar dacă X este de tip discret, µk(X) = ∑ x j − M(X)) k P(X = xj) , J cel mult numărabilă.
j∈J

Momentul de ordinul unu poartă numele de valoare medie şi vom scrie M1(X)=M(X).
Momentul centrat de ordinul doi poartă numele de dispersie a variabilei aleatoare X şi o vom
nota µ2(X) sau D2(X) sau σ2X. Radical din dispersie poartă numele de abatere medie
pătratică.
Momentele centrate de ordinul k se pot exprima cu ajutorul momentelor obişnuite
până la ordinul k, inclusiv. Pentru aceasta avem nevoie însă de unele proprietăţi ale valorii
medii pe care le vom da în cele ce urmează. Înainte, însă, să introducem noţiunea de moment
mixt.
Fiind dat vectorul aleator X = (X1,X2,…,Xn), numim moment mixt de ordinul
k1,k2,…,kn numărul

38
∞ ∞

M
k1k2...k n
(X1X2...Xn) = ∫
−∞
... ∫ x1k1 x 2k2 ... x nkn dn F(x1, x2,..., xn)
−∞
dacă există integrala Stieltjes multiplă.
Dacă vectorul aleator (X1,X2,…,Xn) are densitatea de repartiţie f(x1,x2,…,xn), atunci
∞ ∞

M
k1k2...kn
(X1X2... Xn) = ∫
−∞
... ∫ x1k1 x 2k2 ... x nk n f(x1, x2,..., xn) dx1...dxn
−∞

(în ipoteza că integrala multiplă de ordinul n există), iar dacă vectorul (X1,X2,…,Xn) este de
tip discret,

M
k1,k2,...,kn
(X1X2...Xn) = ∑ ... ∑ x
j 1∈J 1 jn ∈Jn
k1
j1 ⋅ x kj22 ... x kjnn P(X1 = x j1 , X 2 = x j2 ,..., X n = x jn )

Analog, se definesc momentele centrate de ordinul k1,…,kn (dacă ele există):


∞ ∞ n
µ k1k2...kn (X1X2... Xn) = ∫ ... ∫ ∏ (xj - M(Xj)) kj dn F(x1, x2,..., xn) ,
−∞ −∞ j=1

sau, când există densitatea de repartiţie f(x1,x2,…,xn),


∞ ∞ n n
µ k1k2...kn (X1X2... Xn) = ∫ ... ∫ ∏ (xj - M(Xj)) kj f(x1, x2,..., xn) ∏ dxj
−∞ −∞ j=1 j=1

iar în cazul variabilelor aleatoare discrete,


µk1k2...kn (X1X2...Xn) = ∑ ... ∑ (xj1 - M(X1 )) k1 ...(xj n - M(X n )) k n P(X1 = x j1 , ..., X n = x jn )
j 1∈J 1 jn ∈Jn

Din momentele mixte se pot obţine momentele variabilelor aleatoare unidimensionale


obişnuite sau centrate:
∞ ∞ n
Mk(Xp) = M 0,...,0,k,0,...0 (X1X2... Xn) = ∫ ... ∫ x kp f(x1, x2,..., xn) ∏ dx
j=1
j
−∞ −∞

39
∞ ∞ n n
µk(Xp) = µ0,..., 0 ,k , 0...0 (X1X2...Xn) = ∫ ... ∫ ∏ (xp - M(xp)) kj f(x1, x2,..., xn) ∏ dxj , p=1,2,…,n.
−∞ −∞ j=1 j=1

Frecvenţa de utilizare a valorii medii şi dispersiei în aplicaţii sau în tratarea unor


aspecte teoretice impune un studiu al proprietăţilor acestora.

Propoziţie. Operaţia valoarea medie are următoarele proprietăţi:

(1) Dacă variabila aleatoare X=c (constantă) cu probabilitatea 1, atunci M(Xk) = ck,
k∈N
(2) M(aX) = a M(X)
n n
(3) M( ∑ ajXj) = ∑ ajM(Xj)
j=1 j=1
n n
(4) M( ∏ Xj) =∏ M(Xj) , dacă X1,X2,…,Xn sunt independente (în totalitate).
j=1 j =1

Demonstraţie.
⎛ c⎞ ⎧0, x ≤ c
(1) Dacă X = c cu probabilitatea 1, atunci X are repartiţia X : ⎜ ⎟ şi deci FX(x) = ⎨
⎝1 ⎠ ⎩1, x > c
k k
şi de aici urmează M(X ) = c .
⎛ axj ⎞
(2) Este suficient să demonstrăm în cazul X discretă; atunci: a X : ⎜ j ∈ J ⎟ şi deci
⎝ P(X = xj) ⎠
M(aX) = ∑ (aXj) P(X = xj) = aM(X) .
j∈J

(3) Este suficient să demonstrăm proprietatea pentru n = 2, a1 = a2 = 1, apoi, prin inducţie


după n şi folosind proprietatea (2), rezultă afirmaţia. Vom presupune pentru simplificare
că vectorul (X1,X2) are densitatea de repartiţie f(x1,x2) şi atunci urmează că:

∞ ∞ ∞ ∞ ∞ ∞

M(X1 + X2) = ∫
- ∞ −∞
∫ ( x1 + x2)f(x1, x2) dx1dx2 = ∫ - ∞ −∞
∫ x1 f(x1, x2) dx1dx2 + ∫ ∫ x f(x , x ) dx dx
-∞ −∞
2 1 2 1 2 =
∞ ∞ ∞ ∞ ∞ ∞

= ∫ x ( ∫ f(x , x ) dx ) dx
-∞
1
−∞
1 2 2 1 + ∫ x ( ∫ f(x , x ) dx ) dx
-∞
2
−∞
1 2 1 2 = ∫ x1 f1(x1) dx1 + ∫ x2 f2(x2) dx2 =
−∞ −∞

= M ( X 1) + M ( X 2 ).

(4) Presupunând că X1,X2,…,Xn sunt independente în totalitate şi că vectorul (X1,X2,…,Xn)


are densitatea de repartiţie f(X1,X2,…,Xn)( x1,x2,…,xn) care, în ipoteza de independenţă, este
f(X1,X2,…,Xn)( x1,x2,…,xn) = f1(x1)f2(x2)…fn(xn),
∞ ∞

va rezulta: M (X1X2...Xn) = ∫
−∞
... ∫ x1x2...xn f X1X2...Xn (x1, x2,..., xn) dx1...dxn =
−∞
∞ ∞ n ∞ n
= ∫ ... ∫ x1x2...xn f(x1)f(x2)...f(xn) dx1...dxn = ∏ ∫ xjfj(xj) dxj = ∏ M(Xj)
−∞ −∞ j=1 -∞ j=1
n n
adică M(∏ Xj) = ∏ M(Xj) .
j=1 j=1

40
Observaţie. Dacă X este o variabilă aleatoare pentru care există M(X), atunci X - M(X) o
vom numi variabilă aleatoare abatere şi, folosind proprietăţile valorii medii, va rezulta
imediat că: M(X - M(X)) = 0.
Dacă, în plus, există M2(X) atunci, pornind de la definiţie şi folosind proprietăţile
valorii medii, vom obţine:

D2(X) = M[(X - M(X))2] = M[X2 - 2M(X)X + M2(X)] = M(X2) - M2(X) = M2(X) - M2(X).

X - M(X)
Dacă variabila aleatoare X are valoare medie şi dispersie, atunci are sens ,
D( X )
pe care o vom numi abatere normală, dat fiind faptul că:

⎡ X - M(X) ⎤ ⎡ X - M(X) ⎤
M⎢ ⎥ = 0; D 2 ⎢ ⎥ =1
⎣ D( X ) ⎦ ⎣ D( X ) ⎦

Propoziţie. Au loc următoarele proprietăţi pentru momentul centrat de ordinul doi:

(1) Dacă X = c (constantă) cu probabilitatea 1, atunci D2(X) = 0.

(2) D2(aX) = a2D2(X).

n n
(3) D ( ∑ ajXj) = ∑ a 2j D 2 (Xj) , dacă X1,X2,…,Xn sunt independente două câte două.
2

j=1 j =1

Demonstraţie.
⎛ c⎞ ⎛ 0⎞ 2
(1) Cum X are repartiţia X : ⎜ ⎟ , rezultă că M(X) = c şi X - M(x) : ⎜ ⎟ , adică D (X)=0.
⎝1 ⎠ ⎝1 ⎠
(2) D (aX) = M[(aX - M(aX))2] = M[a2(X - M(X))2] = a2D2(X)
2

(3) Aplicăm definiţia dispersiei:


n n n
D 2 ( ∑ ajXj) = M2( ∑ ajXj) - M 2 ( ∑ ajXj)
j=1 j=1 j=1
n n n
M 2 ( ∑ ajXj) = ( ∑ ajM(Xj)) 2 = ∑ a 2j M 2 (Xj) + 2 ∑ a a M(X )M(X )
j k j k
j=1 j=1 j=1 1≤ j< k ≤ n
n n n
M ( ∑ ajXj) = M (( ∑ ajXj) ) = ∑ a 2j M 2 (X 2j ) + 2
2 2
∑ a a M(X X )
j k j k
j=1 j=1 j=1 1≤ j< k ≤ n

Cum variabilele X1,X2,…,Xn sunt independente două câte două, rezultă că:

M(XjXk) = M(Xj)M(Xk)
şi, deci,

41
n n n
D 2 ( ∑ ajXj) = ∑ a 2j M 2 (X 2j ) + 2 ∑ ajakM(Xj)M(Xk) − ∑ a 2j M 2 (X 2j ) - 2 ∑ a a M(X )M(X ) =
j k j k
j=1 j=1 1≤ j< k ≤ n j =1 1≤ j< k ≤ n
n n
= ∑ a [M(X ) - M (X j )] = ∑ a 2j D 2 (Xj)
2
j
2
j
2

j =1 j=1

Aşa după cum am amintit,


µ 2 ( X ) = D( X ) = σ X

este abaterea medie pătratică a variabilei aleatoare X.


Ca aplicaţie a proprietăţilor valorii medii putem acum să arătăm că momentele
centrate de ordinul k se pot exprima cu ajutorul momentelor de ordin cel mult k şi reciproc.
Într-adevăr,
k
µk ( X ) = Mk[ X − M ( X )] = M [( X − M ( X )) k ] = ∑ ( −1) j Ckj Mk − j( X ) M j ( X ), k ∈ Ν *
j=0

şi reciproc,
k
Mk ( X ) = ∑ Ckj µ k − j ( X ) M j ( X )
j=0

Alte valori tipice ale variabilei aleatoare se pot introduce de la momentele obişnuite sau
centrate. Aşa, de exemplu, se introduce noţiunea de asimetrie a unei variabile aleatoare pentru
care există µ2(X) şi µ3(X).
Prin definiţie, coeficientul de asimetrie al variabilei X este
µ (X)
γ 1 = 33/ 2
µ2 ( X )
Se constată imediat că acest coeficient are acelaşi semn cu momentul µ3(X). De aici rezultă că
asimetria este pozitivă dacă valoarea modală este situată în stânga valorii medii şi negativă în
caz contrar.
Pentru variabilele aleatoare pentru care există µ2(X) şi µ4(X) se introduce coeficientul
de exces prin expresia:
µ (X)
γ 21 = 42 −3
µ2 ( X )

Acest coeficient caracterizează gradul de aplatizare a graficului densităţii de repartiţie faţă de


graficul densităţii de repartiţie normală:
1 −x2 /2
f (x) = e ,

pentru care γ2 = 0. Repartiţiile pentru care γ2 = 0 se numesc mezocurtice, cele cu γ2 > 0 -
leptocurtice, iar cele cu γ2 < 0 - platocurtice.
Să considerăm acum două exemple pentru care să punem în evidenţă coeficienţii de
asimetrie şi de exces.
Se consideră variabila aleatoare Poisson
⎛k ⎞
⎜ ⎟
X : ⎜ -λ λ k k = 0,1,2,...⎟
⎜e ⎟
⎝ k! ⎠

42
şi variabila aleatoare Y repartizată exponenţial negativ, de parametru λ:
⎧ 1 − θx
⎪⎪ e ,x > 0
f(x) = ⎨θ θ>0
⎪ 0 ,x ≤ 0
⎪⎩
Atunci,

λx
M(X) = ∑ ke -λ =λ
k=0 k!

λx ∞
λk-1 ⎡ ∞ λk-2 ∞
λk-1 ⎤
M2(X) = ∑ k 2 e -λ = λe - λ ∑ k = e -k λ ⎢λ ∑ +∑ ⎥ = λ2 + λ
k=0 k! k=1 ( k − 1)! ⎣ k=2 ( k − 2)! k=1 ( k − 1)!⎦

λ x ∞
λk-1 ∞
λk-1
M3(X) = ∑ k e 3 −λ
= e λ∑ k
-λ 2
= e λ ∑ [( k − 1) + 2( k − 1) + 1]
−λ 2
=
k=0 k! k=1 ( k − 1)! k=1 ( k − 1)!
= λ3 + 3λ2 + λ

λx
M4(X) = ∑ k e 4 -λ
= λ4 + 4λ3 + 8λ2 + 2λ
k=0 k!

Întrucât µ2(X) = λ şi µ3(X) = M3(X) - 3M(X)M(X) + 2M3(X) = λ, rezultă:

µ3 ( X ) λ 1
γ1 = = 3/ 2 = 1/ 2 > 0
µ2 ( X ) λ
3/ 2
λ

ceea ce înseamnă că repartiţia Poisson este asimetrică (pozitiv asimetrică)

µ 4 ( X ) = C40 M 4 ( X ) − C41 M 3 ( X ) M ( X ) + C42 M 2 ( X ) M 2 ( X ) − C43 M 4 ( X ) + M 4 ( X ) =


= 2λ (1 + 2λ − λ 2 )
µ4 ( X ) 2λ (1 + 2λ − λ 2 )
γ2 = 2 −3= −3
µ2 ( X ) λ2 (1 + λ ) 2

În cazul repartiţiei exponenţiale,



1 k − θx
M k (X) = ∫ x e dx = θ k Γ( k + 1)
θ 0
M1(X) = θ µ1(X) = 0
M2(X) = 2θ2 µ2(X) = θ2
M3(X) = 6θ3 µ3(X) = 2θ3
M4(X) = 24θ4 µ4(X) = 9θ4
µ3 ( X ) 2θ 3
γ 1 = 3/ 2 −3= = 2 - pozitiv asimetrică
µ2 ( X ) θ6
µ4 ( X ) 9θ 4
γ2 = 2 − 3= 4 − 3= 6,
µ2 ( X ) θ
deci o repartiţie leptocurtică.

43
Inegalitatea lui Cebîşev. Această inegalitate celebră leagă posibilitatea abaterii în
valoare absolută de dispersia variabilei aleatoare şi intervine în numeroase aplicaţii.
Dacă X este o variabilă aleatoare pentru care există M(X) şi D2(X), atunci, pentru
orice ε > 0, are loc inegalitatea:
D2 ( X )
P(ω:| X (ω ) − M ( X )| ≥ ε ) ≤ 2
ε

Pentru a dovedi acest lucru, pornim de la expresia dispersiei:

D 2 ( X ) = ∫ ( x − M ( X )) 2 dF ( x ) = ∫ ( x ε− M ( X ))
2
dF ( x ) + ∫ ( x ε− M ( X ))
2
dF ( x ) ≥
R | x − M ( X )|≥ | x − M ( X )|<

≥ ∫ ( x − M ( X )) dF ( x ) ≥ ε ⋅ ∫ dF ( x ) = ε P(ω:| X (ω ) − M ( X )| ≥ ε )
2 2 2

| x − M ( X )|≥ε | x − M ( X )|<ε

D2 ( X )
Deci, P(ω:| X (ω ) − M ( X )| ≥ ε ) ≤ . Dacă acum ţinem seama de egalitatea
ε2
P(ω :| X (ω ) − M ( X )| ≥ ε ) + P(ω :| X (ω ) − M ( X )| < ε ) = 1, obţinem:
D2 ( X )
P(ω:| X (ω ) − M ( X )| < ε ) = 1 − P(ω:| X (ω ) − M ( X )| ≥ ε ) ≥ 1 −
ε2

Aşadar, cu ajutorul inegalităţii lui Cebîşev putem evalua o limită inferioară a


probabilităţii cu care valorile variabilei aleatoare se grupează în jurul valorii medii.
1 8
Dacă luăm ε = 3σX, atunci P(ω :| X (ω ) − M ( X )| < 3σ X ) ≥ 1 − = , care mai poate
9 9
fi scrisă
8
P(ω : M ( X ) − 3σ X < X (ω ) < M ( X ) + 3σ X ) ≥ ,
9
motiv pentru care este cunoscută şi sub numele de “regula 3σX”.

2.6. Inegalităţi pentru momente. Inegalitatea lui HGlder

Dacă X şi Y sunt variabile aleatoare astfel încât există Mr(|X|) şi Ms(|Y|), atunci există
M(|XY|) şi
1 1
1 1
M(|XY|) ≤ Mr(| X| ) Ms(|Y| ) s , unde r > 1 şi + = 1 .
r
r s

Pentru r = s = 2 obţinem un caz particular, inegalitatea lui Schwartz:


1 1
M(|XY|) ≤ (M2(|X|)) 2
(M2(|Y|)) . 2

| a| r | b| s 1 1
Demonstraţie. Vom pleca de la inegalitatea | ab| ≤ + , r > 1, + = 1, a,b∈R.
r s r s
X X
Dacă luăm a= 1/ r ;
b= şi înlocuim în inegalitatea considerată,
r
( M (| X | )) ( M (|/ Y | sr ))1/ s
obţinem:

44
| XY | | X |r | Y|s
≤ +
( M (| X | r ))1/ r ( M (| Y | ) s )1/ s rM (| X | r ) s( M (| Y | ) s )

Aplicând operatorul valoare medie, se obţine:

M (| XY | ) M (| X | r ) M (| Y | s ) 1 1
r 1/ r s 1/ s ≤ r + s = + =1
( M (| X | )) ( M (| Y | ) ) rM (| X | ) s( M (| Y | ) ) r s
şi, deci,
1 1
M(|XY|) ≤ Mr(| X| ) r
Ms(|Y| ) s ,

care este tocmai inegalitatea considerată.


În cazul în care r = s = 2 se obţine de aici, aşa cum am menţionat, inegalitatea lui
Schwartz.

Inegalitatea lui Minkowski. Dacă X şi Y sunt variabile aleatoare astfel încât M(|X|r) şi
M(|Y| ) există pentru r ≥ 1, atunci există M(|X+Y|r) şi avem:
r

1
1 1
r r
M(|X+Y| ) ≤ M(|X| r ) r
+ M(|Y| r ) r .

Demonstraţie. Pentru r = 1 inegalitatea este evidentă. Presupunem deci r >1 şi atunci putem
scrie:
M(| X + Y| r ) = M(| X + Y|| X + Y| r-1 ) ≤ M((| X|+|Y| )| X + Y| r-1 ) =
= M(| X|| X + Y| r-1 ) + M(|Y|| X + Y| r-1

Aplicând inegalitatea lui HGlder pentru fiecare termen din ultima sumă obţinem:
1 1
M(| X|| X + Y| r-1
) ≤ M(| X| )) M(| X + Y|
r r s(r-1)
) s

1 1
M(|Y|| X + Y| r-1 ) ≤ M(|Y| r )) r M(| X + Y| s(r-1) ) s
Avem, deci,
⎡ 1 1
⎤ 1
M(| X + Y| r ) ≤ ⎢( M(| X| r )) r + (M(|Y| r )) r ⎥ M(| X + Y| s(r-1) ) s
⎣ ⎦
1
1 1
Împărţind cu M(| X + Y| s(r-1) ) s şi ţinând seama de faptul că (r - 1)s = r; 1- = se obţine:
1
s r
1 1
r
r
M(|X+Y |) ≤ M(|X| ) r r
+ M(|Y| ) . r r

Inegalitatea lui Liapunov (proprietatea de monotonie a momentelor).


1 1

Dacă există M(| X| ) şi M(|X| ) , 0 < r1 ≤ r2 atunci (M(| X| )) ≤ (M(|X| )) .


r1 r2 r1 r2 r2 r2

Demonstraţie.

45
Pentru r1 = r2 inegalitatea este adevărată, cu semnul egal. Presupunem deci că r1 < r2 şi atunci
r2 1 1
> 1 ; alegem s astfel încât + = 1 şi să aplicăm inegalitatea lui HGlder aşa cum rezultă
r1 r2 s
r1
mai jos:
r 2 / r1
(M(| X| r1 ) = (M(| X| r1 ⋅1) ≤ (M((| X| r1 ) r2 / r1 ))1/ ( M (1s ))1/ s = ( M(| X| r2 )) r1 / r2
1 1

De aici rezultă imediat că (M(|X| r1 )) r1 ≤ (M(|X| r2 )) r2 .

2.7. Corelaţie şi coeficient de corelaţie.


Să considerăm vectorul aleator (X,Y) şi asupra componentelor facem ipoteza că există M2(X)
şi M2(Y).

Definiţie. Numim corelaţie (covarianţă) a variabilelor X şi Y momentul mixt

µ11 = M[(X- M(X)) (Y - M(X))]

Adesea se mai notează µ11 = cov(X,Y). Acest indicator măsoară existenţa legăturii stochastice
între variabilele X şi Y. Din definiţia corelaţiei rezultă imediat că

µ11 = M(XY) - M(X)M(Y)

Prin definiţie, variabilele X şi Y se numesc necorelate dacă µ11 = 0. Aceasta înseamnă că:

M(XY) = M(X)M(Y)

Dacă variabilele X şi Y sunt independente, atunci ele sunt necorelate. Reciproc nu-i adevărat
întotdeauna, lucru ce se poate constata pe următorul exemplu.
Se consideră vectorul aleator (X,Y), cu densitatea de repartiţie bidimensională:

⎧ 1
⎪ 4 [1 + xy(x − y )] , (x, y) ∈[−1,1]x[−1,1]
2 2

f(x, y) = ⎨
⎪ 0 , în rest

Dintr-un calcul simplu rezultă imediat că:

46
1 1 1 1 1 1
1 1 1
M(X) = ∫ ∫ x[1 + xy(x − y )] dx dy = ∫
2 2
∫ x dx dy + ∫ ∫ x 4 y dx dy −
4 −1 −1
4 −1 −1
4 −1 −1
1 1
1
4 −∫1 ∫
− x 2 y 3 dx dy = 0
−1
1 1
1
M(Y) = ∫
4 −1 −1
∫ y[1 + xy(x 2
− y 2 )] dx dy = 0
1 1 1 1 1 1
1 1 1
M(XY) = ∫ ∫ xy[1 + xy(x − y )] dx dy = ∫
2 2
∫ xy dx dy + ∫ ∫ x 4 y 2 dx dy -
4 −1 −1
4 −1 −1
4 −1 −1
1 1
1
4 −∫1 ∫
- x 2 y 4 dx dy = 0
−1

Deci µ11 = 0, adică variabilele X şi Y sunt necorelate. Pe de altă parte,

1
1 1
f1 (x) = ∫
4 −1
[1 + xy(x 2 − y 2 )]dy = , x∈[-1,1]
2
1
1 1
f 2 (y) = ∫ [1 + xy(x 2 − y 2 )]dx = , y∈[-1,1]
4 −1 2

şi, evident,
f(x,y) ≠ f1(x)f2(y),

ceea ce înseamnă că variabilele X şi Y nu sunt independente.


Intensitatea legăturii stochastice a două variabile aleatoare se poate măsura cu ajutorul
unor indicatori numerici dintre care cel mai frecvent întâlnit este coeficientul de corelaţie.
Fie X,Y două variabile aleatoare pentru care există D2(X) şi D2(Y).
Definiţie. Numim coeficient de corelaţie al variabilelor X,Y raportul:
µ11 M ( XY ) − M ( X ) M (Y )
ρ X,Y = =
D(X)D(Y) D 2 ( X )D 2 (Y )

Teoremă. Oricare ar fi variabilele aleatoare X,Y astfel încât D2(X)D2(Y) ≠ 0, au loc


proprietăţile:
(1) ρXY = 0 dacă şi numai dacă variabilele aleatoare X,Y sunt necorelate;
(2) Dacă X,Y sunt independente, atunci ρXY = 0, reciproca nefiind adevărată;
(3) |ρXY| ≤ 1;
(4) |ρXY| = 1 implică o dependenţă liniară între variabilele X şi Y.

Demonstraţie.
(1) rezultă imediat, din însăşi definiţia coeficientului de corelaţie.
(2) X,Y independente înseamnă M(XY) = M(X)M(Y) şi deci conv(XY) = 0, ceea ce
conduce la ρXY = 0. Faptul că invers nu-i adevărat rezultă imediat din exemplul anterior.

M[( X − M ( X ))(Y − M (Y ))] M ( ( X − M ( X ))(Y − M (Y )) )


(3) | ρ XY | = ≤ ≤
D( X )D(Y ) D( X )D(Y )

47
( M (| X − M ( X )| 2 ))1/ 2 ( M (| Y − M (Y )| 2 ))1/ 2
≤ =1
D( X )D(Y )

(4) Fie a,b ∈ R, a ≠ 0 şi să luăm Y = aX + b. Atunci,

ρ XY | = =
[
M [( X − M ( X ))( aX + b − aM ( X ) − b)] aM ( X − M ( X ))
2

.
]
D( X ) D( aX + b) | a| D 2 ( X )

a ⎧− 1 ,a < 0
Deci, ρXY = =⎨
| a| ⎩1 ,a > 0

şi, dacă există între X şi Y o dependenţă liniară, atunci ρ XY = ±1.

Să considerăm acum variabilele aleatoare abatere normată:

X − M( X ) Y − M (Y )
X'= ; Y' =
D( X ) D(Y )
Atunci, M(X’Y’) = ρ XY = ±1. Pe de altă parte,
M (( X − M ( X )) 2 ) M ((Y − M (Y )) 2 )
M (| X '±Y '| 2 ) = + ± 2 M ( X ' Y ' ) = 2 ± 2( ±1) = 0
D2( X ) D 2 (Y )
şi, deci, X’ ± Y’ = 0 cu probabilitatea 1.
Ţinând cont de modul în care s-au definit cele două variabile aleatoare rezultă:
X − M( X )
Y = M (Y ) ± D(Y )
D( X )

ceea ce dovedeşte că:


Y = b ± aX,
adică o dependenţă liniară.

x − M( X ) y − M (Y ) y − M (Y ) x − M( X )
Dreptele = λ1 şi = λ2 se numesc drepte
D( X ) D(Y ) D(Y ) D( X )
de regresie şi se intersectează în punctul (M(X)M(Y)).

Valori medii condiţionate. Vom lua în consideraţie doar cazurile importante, când
există densitate de repartiţie condiţionată sau când variabilele sunt de tip discret.
Dacă variabila aleatoare X are repartiţia

⎛xj ⎞
X: ⎜ j ∈J⎟
⎝ P(X = x j ) ⎠

şi dacă A este un eveniment cu P(A) ≠ 0, atunci, prin definiţie, valoarea medie condiţionată de
evenimentul A a variabilei X este:

48
M(X / A) = ∑ x j P(X = x j / A) .
j∈J

În cazul când avem un vector aleator bidimensional (X,Y) cu X şi Y de tip discret, în


locul evenimentului A putem lua {Y = yk} şi atunci

M(X / Y = y k ) = ∑ x j P(X = x j / Y = y k )
j∈J

În ipoteza că există densitatea de repartiţie condiţionată f(x/y) rezultă:

∞ ∞ ∞
x f(x, y) 1
M(X / Y = y) = ∫ xf(x / y) dx = ∫
f 2 (y) -∫∞
dx = xf(x, y) dx
−∞ −∞
f 2 (y)

Analog, se introduc mediile condiţionate:

M(Y / B) = ∑ y k P(Y = y k / B)
jkJK

M(Y / X = x j ) = ∑ y k P(Y = y k / X = x j )
jkJK
∞ ∞
1
M(Y / X = x ) = ∫ yf(y / x) dy =
f1 (x) -∫∞
yf(x, y) dy
−∞

Se vede imediat că M(X/Y=y) = ϕ1(y)


M(Y/X=x) = ϕ2(x), funcţii care poartă numele de curbe de regresie.

2.8. Funcţii de argumente aleatoare

Fie (Xi) 1 ≤ i ≤ n o familie finită de variabile aleatoare şi să considerăm familia de


aplicaţii hj:Rn→R, 1 ≤ j ≤ m măsurabile Borel. Atunci Yj = hj(X1,X2,…,Xn), 1 ≤ j ≤ m sunt
variabile aleatoare. Dacă notăm cu X = (X1,X2,…,Xn) vectorul aleator n-dimensional şi cu
Y = (Y1,Y2,…,Ym) vectorul aleator m-dimensional, atunci

FY ( y1 , y 2 ,..., y m ) = ∫ ... ∫ d n FX ( x1 , x 2 ,..., x n ) ,


Dn

unde Dn = {(x1,x2,…,xn)∈Rn : hj(x1,x2,…,xn) < yj, 1 ≤ j ≤ m}.


În cazul în care m = n, hj, 1 ≤ j ≤ m sunt bijecţii diferenţiabile, iar X şi Y admit
densităţi de repartiţie, atunci

(*) fY(x1,..., xn) = fX(h 1-1 (x1,..., xn),..., h -1n (x1,..., xn)) | J|

unde J este iacobianul transformării,


D( h1,..., hn )
J= .
D ( x1,.., xn )

49
Dacă m = n = 1, relaţia (*) devine:

fY(x) = fX(h −1 (x)) |(h −1 (x))'|

Exemplu. Fie Y o variabilă aleatoare a cărei densitate de repartiţie este fX(x) şi să


considerăm variabila aleatoare Y = h(X) = X2. Atunci h −1 (x) = ± x , x > o şi de aici rezultă:


⎪⎪0 ,x ≤ 0
f Y (x) = ⎨

1
⎪⎩ 2 x [
fX( x) + fX( − x ) ] ,x > 0

Această relaţie rezultă însă imediat (şi mai simplu), după cum urmează:
⎧0 ,x ≤ 0
FY ( x ) = P(ω : Y (ω ) < x ) = P(ω : X 2 (ω ) < x ) = ⎨
⎩P(ω :| X (ω )| < x , x > 0
⎧0 ,x ≤ 0
=⎨
⎩FX ( x ) − FX ( − x ) , x > 0

De aici, prin derivare, rezultă că:


⎪⎪0 ,x ≤ 0
f Y (x) = ⎨

1
⎪⎩ 2 x [
fX( x) + fX( − x ) ] ,x > 0

Pentru familia de variabile aleatoare (Xi) 1 ≤ i ≤ n independente, în cazul m =1 şi


n
Y = h(X1,X2,…,Xn)= ∑ Xi , atunci:
i =1

FY ( y ) = ∫ ... ∫ d n FX ( x1 , x 2 ,..., x n ) = ∫ ... ∫ dF 1( x1 )... dFn( x n ) ,


Dn Dn
n
unde Dn = {(x1,x2,…,xn)∈R : x1+x2+…+xn < y}.
Ţinând seama de definiţia produsului de compoziţie (convoluţie) şi de asociativitatea
sa, putem scrie
y

FY ( y ) = ∫ d ( F ∗...∗ F )( x ) =( F ∗...∗ F )( x )
−∞
1 n 1 n

Să considerăm acum vectorul aleator (X,Y) cu densitatea de repartiţie fX,Y(x,y) şi să


determinăm densitatea de repartiţie a variabilelor
X
1) U = X+Y; 2) V = XY; 3) W = , Y ≠ 0 .
Y

50
∞ u− y

1) FU(u) = P(X+Y<u)= ∫ ∫f X, Y (x, y) dx dy = ∫ ∫f (X, Y) (x, y) dx dy . Rezultă:


{( x , y )∈R 2 :x + y < u −∞ −∞
∞ ∞

fU ( u) =
−∞
∫f X, Y (u − y, y) dy şi, prin simetrie, fU ( u ) = ∫f
−∞
X, Y (x, u - x) dx . Dacă X,Y sunt
∞ ∞

independente, atunci fU(u) = ∫ fX(u − y)fY(y) dy = ∫ fX(x)fY(u − x) dx .


−∞ −∞

v
∞ y 0 ∞

2) FV(v)=P(XY<v)= ∫ ∫f X, Y (x, y) dx dy = ∫ ∫f (x, y) dx dy +


(X, Y)
∫ ∫ f$ X,Y (x, y) dx dy
{( x , y )∈R :xy < v }
2
0 −∞ −∞ v
y
∞ 0
1 v 1 v
fV(v) = ∫ fX, Y( , y)dy − ∫ fX, Y( , y)dy .
0
y y −∞
y y

∞ ∞
1 v 1 v
Deci, fV(v) = ∫
-∞ y
fX, Y( , y)dy = ∫ fX, Y(x, )dx
y −∞
x x

51
Dacă X,Y sunt independente, atunci:

∞ ∞
1 v 1 v
fV(v) =
-∞
∫ y
fX( )fY(y)dy = ∫ fX(x)fY( )dx
y −∞
x x

∞ yw 0 ∞
X
3) FW(w) = P( < w) =
Y ∫ ∫ fX, Y(x, y) dx dy = ∫
x 0
∫ fX, Y(x, y) dx dy +
−∞
∫ ∫f
−∞ yw
(x, y) dx dy
X, Y

{( x , y )∈R : < w , y ≠ 0}
2
y

Urmează că
∞ 0 ∞

fW(w) = ∫ yfX, Y(yw, y)dy − ∫ yfX, Y(yw, y)dy = ∫ y fX, Y(yw, y)dy
0 −∞ −∞

Dacă X,Y sunt independente, atunci:

fW(w) = ∫ y f (yw)f (y)dy


-∞
X Y

Observaţie. Cu ajutorul schimbărilor la variabile se pot obţine aceleaşi rezultate, pe această


cale simplă:
1) Z = X+Y şi punem T=Y. Atunci,
D(x, y)
F(Z, T)(z, t) = f(X, Y)(x(z, t), y(z, t))
D(z, t)
D(x, y) 1 − 1
x = z-t; y = t; = =1
D(z, t) 0 1
şi
∞ ∞ ∞ ∞

fZ(z) = ∫ f Z,T (z, t)dt = ∫ f X,Y (z - t, t)dt = ∫ f X,Y (z - y, y)dy = ∫ f X,Y (x, z - x)dx
-∞ −∞ −∞ −∞

2) V = XY; T = Y
D(x, y)
FV,T (v, t) = f(X, Y)(x(v, t), y(v, t))
D(z, t)
1 v
⎧ v −
⎪x = D(x, y) t t2 = 1
⎨ t =
⎪⎩y = t D(v, t) 0 1 t

52
v 1
f(V, T)(v, t) = f(X, Y)( , t)
t | t|
şi, de aici,
∞ ∞ ∞
v 1 v 1
fV(v) = ∫
−∞
f(V, T)(v, t) dt = ∫ f(X, Y)( , t)
-∞
t | t|
dt = ∫ f(X, Y)( , y) dy
−∞
y | y|

Analog, dacă punem


⎧x = t 1 0
⎪ D( x, y ) 1 = 1 , obţinem:
⎨ v = v
⎪⎩y = t D( v, t ) − 2 t t
t

∞ ∞ ∞
v 1 v 1
fV(v) = ∫
−∞
f(T, V)(t, v) dt = ∫ f(X, Y)(t, ) dt = ∫ f(X, Y)(x, ) dx
-∞
t | t| −∞
x | x|

3) Să punem
⎧ X
⎪W = ⎧x = tw D(x, y) w t
⎨ Y ⎨ = = −t
⎪⎩T = Y ⎩y = t D(t, w) 1 0

f(T, W)(t, w) = f(X, Y)(tw, t)| t|


şi, de aici,

∞ ∞ ∞

fW(w) = ∫
−∞
f(T, W)(t, w) dt = ∫ f(X, Y)(tw, t) | t| dt =
-∞
∫f
−∞
(yw, y)| y| dy
(X, Y)

2.9. Funcţie caracteristică. Proprietăţi

Am văzut că funcţia de repartiţie constituie un instrument analitic de studiat


variabilele aleatoare. În multe situaţii - îndeosebi în studiul sumelor de variabile aleatoare
independente - devine mai dificil de manipulat şi, drept urmare, s-au căutat alte instrumente
mai uşor de manipulat.
Funcţia caracteristică constituie un instrument puternic de investigaţie şi comod de
utilizat.

Definiţie. Fie X o variabilă aleatoare definită pe {Ω,K,P} cu funcţia de repartiţie FX.


Aplicaţia ϕX:R→C, definită prin:
ϕX(t) = M(eitX)

o vom numi funcţie caracteristică a variabilei aleatoare X.


Din definiţia funcţiei caracteristice rezultă că:

ϕ X (t) = ∫e
itx
dFX ( x )
−∞

53
Dacă variabila aleatoare este de tip discret, atunci:
ϕX ( t ) = ∑ e itxj P( X = xj ) ,
j ∈J

iar dacă X admite densitatea de repartiţie fX, rezultă, din definiţie, că:

ϕ X ( t ) = ∫ e itx f X ( x )dx
−∞

Propoziţia care urmează grupează principalele proprietăţi ale funcţiei caracteristice.

Propoziţie. Dacă ϕX este funcţia caracteristică a variabilei aleatoare X, atunci ea are


proprietăţile:

(1) ϕX(0) = 1
(2) | ϕX(t) | ≤ 1
(3) ϕ X (t) = ϕ X ( − t)
(4) ϕX este uniform continuă pe R.

Demonstraţie.

(1) Rezultă imediat că ϕ X ( 0) = ∫ 1 ⋅ dFX(x) = 1


−∞

∞ ∞ ∞

(2) ϕX ( t ) =
−∞
∫e itx
dFX ( x ) ≤ ∫e
−∞
itx
dFX ( x ) = ∫ dFX ( x ) = 1
−∞

∞ ∞ ∞

(3) ϕX ( t ) = ∫e
−∞
itx
dFX ( x ) ≤
−∞
∫e itx
dFX ( x ) = ∫ e − itx dFX ( x ) =ϕX ( − t )
−∞

(4) Fie t1,t2∈R şi să considerăm


∞ ∞ ∞ ∞

ϕX ( t1) − ϕX ( t 2 ) = ∫e dFX ( x ) − ∫e dFX ( x ) ≤ ∫ (e −e )dFX ( x ) ≤ ∫e − e it 2 x dFX ( x )


it1 x it 2 x it1 x it 2 x it1 x

−∞ −∞ −∞ −∞

−A ∞
ε ε
Fie acum ε > 0 şi A > 0 astfel încât ∫ dF
−∞
X (x) <
8
şi ∫ dF ( x ) < 8 .
A
X

ε
Pentru |x| < A, dacă |t1-t2| < η(ε), atunci e it1x − e it2 x < . Deci,
2
−A A ∞

ϕX ( t 1) − ϕX ( t 2 ) = ∫e −e dFX ( x ) + ∫e −e dFX ( x ) + ∫ e it1x − e it2 x dFX ( x )


it1 x it 2 x it1 x it 2 x

−∞ −A A

Cum pentru orice x∈R, e it1x − e it2 x ≤ 2 , rezultă că:

54
−A ∞
ε A

ϕX ( t1) − ϕX ( t 2 ) = 2 ∫ dFX ( x ) +
2 −∫A
dFX ( x ) + 2∫ dFX ( x ) = ε ,
−∞ A
ceea ce demonstrează afirmaţia.

Propoziţie. Dacă Y = aX + b, atunci:

(1) ϕY ( t ) = e ibt ϕX ( at )

Dacă (Xj)1 ≤ j ≤ n sunt variabile aleatoare independente, atunci:

n
(2) ϕ n (t ) = ∏ ϕ X j (t )
∑ Xj j =1
j =1

Demonstraţie.
(1) ϕY(t) = M(eitY) = M(eit(aX+b)) = M(eibt eiatX) = eibtM(eiatX) = eibtϕX(at)

(2) Demonstrăm prin inducţie:

( ) ( )
n = 2: ϕ ( X ,X ) ( t ) = M e it ( X1 + X 2 ) = M e it ( aX1 ) e it ( aX 2 ) = M (e itX1 ) M (e itX 2 ) = ϕX 1 ( t )ϕX 2 ( t )
1 2

Presupunem proprietatea adevărată pentru n-1 şi dovedim pentru n:


n
n n
it ∑ Xj n −1 n −1
ϕ n
∑ Xj
(t ) = M (e it
∑ X ) =M (e
j =1
j
it ∑ Xj
j =1 e itXn
) = M (e j =1
) M ( e itXn ) = ∏ ϕ X j ( t )ϕ Xn ( t ) =∏ ϕ X j ( t )
j =1 j =1
j =1

Să stabilim legătura între funcţia caracteristică şi momente, dacă acestea există.

Teoremă. Dacă X este o variabilă aleatoare pentru care există Mn(|X|), atunci ϕX este de n
ori derivabilă şi
ϕ X( k ) ( 0) = i k M k ( X ), 1 ≤ k ≤ n

Demonstraţie. În expresia funcţiei caracteristice


ϕ X ( t ) = ∫ e itx dFX ( x )
−∞

să derivăm formal de k ori (k ≤ n). Obţinem


ϕ (t) = i ∫x
(k) k k
X e itx dFX ( x ) .
−∞
Dar,
∞ ∞

ϕ (t ) = i ∫x e dFX ( x ) ≤ ∫x dFX ( x ) = Mk (| x| ) < ∞ ,


(k ) k k itx k
X
−∞ −∞

în virtutea ipotezei făcute.

Din derivata de ordin K a funcţiei caracteristice, rezultă acum imediat:

55
ϕ X( k ) ( 0) = i k M k ( X ), 1 ≤ k ≤ n

Consecinţă. Dacă variabila aleatoare X admite momente de orice ordin (finite), atunci:

( it ) k
ϕ X (t) = ∑ M k ( X ) ,
k =0 k!
pe intervalul de convergenţă al seriei de puteri.
Pornind de la funcţia caracteristică vom defini acum alte caracteristici numerice ale
unei variabile aleatoare X, diferite de momentele considerate de noi.

Definiţie. Fie X o variabilă aleatoare şi ϕX(t) funcţia ei caracteristică. Vom numi aplicaţia

ψX:R→C,
definită prin:
ψX(t) = ln ϕX(t)

a doua funcţie caracteristică a variabilei aleatoare X. (s-a luat aici determinarea principală a
logaritmului natural).
Din definiţia dată, rezultă că dacă există ψ’X(0) şi ψ”X(0) atunci există M(X) şi D2(X)
şi putem scrie:

M(X) = -i ψ’X(0); D2(X) = i2 ψ’’X(0)

Dacă există ψ X( k ) ( 0) , k∈N*, atunci expresia

ϑk ( X ) = i k ψ X( k ) ( 0)

poartă numele de semiinvariantul sau cumulantul de ordin k al variabilei aleatoare X. Se


constată că ϑ k(X) este funcţie raţională întreagă de primele k momente.

Formula de inversiune; teorema de unicitate

Am văzut că fiecărei variabile aleatoare îi corespunde funcţia ei de repartiţie FX şi,


odată cu aceasta, putem determina funcţia caracteristică ϕX(t) = M(eitX). Ne punem acum
întrebarea: dacă se cunoaşte funcţia caracteristică, putem determina funcţia de repartiţie?
Răspunsul este dat de teorema care urmează.

Teoremă. (Formula de inversiune) Fie X o variabilă aleatoare şi FX, ϕX respectiv funcţia de


repartiţie şi funcţia caracteristică corespunzătoare. Dacă x1,x2 cu x1<x2 sunt puncte de
continuitate ale lui FX, atunci:

c
1 e − itx1 − e − itx2
FX ( x 2) − FX ( x1) = lim
c →∞ 2π ∫
−c
it
ϕ ( t ) dt

Demonstraţie. Să observăm mai întâi că funcţia de sub integrală este luată în origine prin
continuitate, că este continuă şi mărginită şi, deci, pentru orice c ∈R integrala

56
c
1 e − itx1 − e − itx 2
Ic =
2π ∫
−c
it
ϕ ( t ) dt

este o integrală Riemann obişnuită. Dacă ţinem seama că ϕ(t) = M(eitX), urmează că:
c
1 e − itx1 − e − itx 2

1

⎡ c e − it ( y − x1 ) − e − it ( y − x 2 ) ⎤
2π −∫c ∫ e dF( y ) dt = 2π −∞∫ ⎢⎣−∫c
Ic = ity
dt ⎥ dF ( y ) =
it −∞
it ⎦
1

⎡ c cos t ( y − x1) − cos t ( y − x 2 ) + i(sin t ( y − x1) − sin t ( y − x 2 )) ⎤
=
2π ∫ ⎢∫
it
dt ⎥ dF ( y )
−∞ ⎣− c ⎦

(s-a putut schimba ordinea de integrare deoarece integrala în raport cu y este absolut
convergentă).
c
cos t ( y − x1) − cos t ( y − x 2)
Dar ∫ dt = 0 (se integrează o funcţie impară ca funcţie
−c
it

∞ c
1 ⎡ sin t ( y − x1) − sin t ( y − x 2 ) ⎤
pară + impară) şi atunci: Ic =
π ∫ ∫ ⎢⎣
−∞ 0
t ⎥ dt dF ( y ) .

1 ⎡ sin t ( y − x1) sin t ( y − x 2 ) ⎤


c c

Notăm g( c, y , x1, x 2 ) = ⎢∫ dt − ∫ dt ⎥ .
π ⎣0 t 0
t ⎦

⎧− 1 / 2 , α < 0
1 sin αt
c

Din formula lui Dirichlet, lim ∫ dt = ⎨0 , α = 0 , convergenţa fiind uniformă dacă
c→∞ π t
0 ⎪1 / 2 , α > 0

1 sin αt
c

π ∫0 t
|α| > δ, iar dacă |α| ≤ δ, atunci dt < 1. Atunci,

⎧1 , x1 < y < x 2

lim g( c, y , x1, x 2 ) == ⎨1 / 2 , y ∈{x1, x 2} şi, deci:
c →∞
⎪0 , y ∈ ( −∞, x1) ∪ ( x 2, ∞ )

∞ x −δ x1 +δ

lim Ic =
c →∞ ∫ lim g(c, y, x , x )dF ( y ) = ∫ lim g(c, y, x , x )dF ( y ) + ∫ δlim g(c, y, x , x )dF ( y ) +
−∞
c →∞
1 2
−∞
c →∞
1 2
x1 −
c →∞
1 2

x 2 −δ x 2 +δ ∞

+ ∫ lim g(c, y, x , x )dF ( y ) + ∫ δlim g(c, y, x , x )dF ( y ) + ∫ δlim g(c, y, x , x )dF ( y ) ,


x1 +δ
c→∞
1 2
x2 −
c →∞
1 2
x2 +
c →∞
1 2

unde δ > 0 astfel încât x1 + δ < x2 - δ. Urmează că:

1 1
lim Ic =
c →∞ 2
[ F ( x1 + δ ) − F ( x1 − δ )] + [ F ( x 2 − δ ) − F ( x1 + δ )] + [ F ( x 2 + δ ) − F ( x 2 − δ )]
2

Făcând pe δ→0 (δ>0), rezultă:

57
1 1
lim Ic =
c →∞ 2
[ F ( x1 + 0) − F ( x1 − 0)] + [ F ( x 2 − 0) − F ( x1 + 0)] + [ F ( x 2 + 0) − F ( x 2 − 0)]
2

şi cum x1 şi x2 sunt puncte de continuitate pentru F, rezultă:


c − itx1
1 e − e − itx2
F ( x 2 ) − F ( x1 ) = lim ∫ ϕ ( t ) dt
2π c→∞ − c it

Teoremă. (Teorema de unicitate) Funcţia de repartiţie este determinată în mod unic de


funcţia ei caracteristică.

Demonstraţie.
Dacă x şi y sunt puncte de continuitate pentru F, atunci, conform formulei de
inversiune, putem scrie:
c
1 e − itx1 − e − itx2
c→∞ 2π ∫
F ( x ) − F ( y ) = lim ϕ ( t ) dt
−c
it

Luând limita în raport cu y după punctele y de continuitate pentru F, obţinem:

c − ity
1 e − e − itx
F ( x ) = lim
y →−∞ 2π ∫
−c
it
ϕ ( t ) dt

Să vedem acum în ce condiţii putem obţine o formulă de inversiune pentru densitatea


de repartiţie.

Teoremă. Dacă funcţia caracteristică ϕ(t) este absolut integrabilă pe R, atunci funcţia de
repartiţie F(x) este absolut continuă, derivata ei, f(x), este continuă şi

1
f (x) = F' (x) = ∫
2π −∞
e − itx ϕ ( t )

1 − itx1
Demonstraţie. Dacă funcţia |ϕ(t)| este integrabilă pe R, atunci funcţia (e − e − itx2 )ϕ ( t )
it
este integrabilă şi, conform formulei de inversiune, putem scrie:

1 e − itx1 − e − itx2
F ( x 2 ) − F ( x1 ) = ∫
2π −∞ it
ϕ ( t ) dt ,

pentru orice x1 < x2 puncte de continuitate pentru F.


Să presupunem că x1 = x - h1, x2 = x + h, h>0 sunt puncte de continuitate pentru F.
Putem, deci, scrie:
∞ ∞
1 − itx e
ith
− e − ith 1 2 sin th −itx
F ( x + h) − F ( x − h) = ∫e
2π −∞ it
ϕ ( t ) dt = ∫ t e ϕ (t ) dt =
2π −∞

1 sin th −itx
= 2h
2π ∫
−∞
th
e ϕ ( t ) dt

58

sin th 1
Deoarece
th
≤ 1 , rezultă F ( x + h ) − F ( x − h ) ≤ 2 h ∫ | ϕ (t )| dt , adică F este absolut
2π −∞
continuă. Pe de altă parte,

F ( x + h) − F( x − h) 1 sin th − itx
2h
= ∫ th e ϕ ( t ) dt
2π −∞
Făcând pe h→0, întrucât limita din membrul drept există, rezultă că există şi limita din
membrul stâng şi:

F ( x + h) − F ( x − h) 1
lim
h→ 0 2h
= f (x) = ∫ e −itxϕ (t ) dt
2π −∞

De asemenea, putem scrie:



1 th 1 th 1 th
| f ( x + h ) − f ( x )| ≤ ∫
2π −∞
2|sin ||ϕ ( t )| dt = ∫ |sin ||ϕ ( t )| dt + ∫ |sin ||ϕ ( t )| dt
2 π |t |≤ A 2 π |t |> A 2
1 ε
Pentru orice ε > 0, putem alege A suficient de mare, astfel încât
π ∫
| t |> A
| ϕ ( t )| dt <
2
.

Dacă h este suficient de mic,


1 th ε
π ∫
| t |≤ A
| sin
2
|| ϕ ( t )| dt <
2
şi, deci, | f ( x + h) − f ( x )| < ε .

Exemplu. Ne propunem să determinăm funcţia de repartiţie corespunzătoare funcţiei


t2

caracteristice ϕ ( t ) = e 2
.
∞ 2
1 1 − e − itx − t2
Aplicând formula de inversiune, putem scrie F ( x ) − F ( 0 ) =
2π ∫ it e dt şi de aici,
−∞
prin derivare,
∞ t2 ∞ t2 ∞ t2
1 − 1 − 1 −
∫e ∫ (cos tx − i sin tx )e ∫ cos tx ⋅e
− itx
F '( x ) = e 2
dt = 2
dt = 2
dt ,
2π −∞
2π −∞
2π −∞

sau:
∞ t2
1 −
F '( x ) =
π ∫ cos tx ⋅e
0
2
dt .

Integrând prin părţi relaţia obţinută, avem:


2 ∞ 2 ∞ 2
sin tx − t2 1 −
t
1 −
t

πx ∫0 πx ∫0

F' ( x) = e 0 + t sin tx ⋅e dt =
2
t sin tx ⋅ ⋅e 2 dt
x

∞ t2
1 −
Pe de altă parte, dacă mai derivăm odată, F ' ' ( x ) = −
π ∫ t sin tx ⋅e
0
2
dt .
x2 x2
− −
Deci, F ''( x ) = − xF '( x ) care conduce la F ' ( x ) = c ⋅ e 2
, adică f ( x ) = c ⋅ e 2
, c > 0.

59
∞ x2
− 1
Din ∫
−∞
c⋅e 2
dx = 1 se obţine c =

, deci, în final,
x2 x y2
1 − 1 −


f (x) =
e ; F(x) =
2π −∞
∫ e dy 2 2

Exemplu. Să se determine densitatea de repartiţie a variabilei aleatoare X cu funcţia


caracteristică ϕ(t) = e-|t|.
Aplicând formula de inversiune pentru densitatea de repartiţie, putem scrie:

1 ⎡ t − itx ⎤ 1 ∞ −t
∞ 0 ∞
1
f (x) =
2π ∫e
−∞
− itx − |t |
e dt = ⎢ ∫ e dt + ∫ e
2π ⎣−∞ 0
− t − itx
dt ⎥ = ∫ e cos tx dt
⎦ π 0

Integrând de două ori prin părţi, obţinem:

1⎡ ⎤ 1⎡ ⎤
∞ ∞ ∞
1
f ( x ) = ∫ ( − e )'cos tx dt = ⎢− e − t cos tx
−t ∞
− x ∫ e sin tx dt ⎥ = ⎢1 − x ∫ e − t sin tx dt ⎥ =
−t

π0 π⎣ 0
0 ⎦ π⎣ 0 ⎦
1⎡ ⎤ 1
∞ ∞
2 1 1 1
= ⎢1 − x ∫ e cos tx dt ⎥ = − x
2 −t
∫ e − t cos tx dt = − x 2 f ( x ) ⇒ f ( x )(1 + x 2 ) =
π⎣ 0 ⎦ π π0 π π

şi, deci,
1
f (x) = ,
π (1 + x 2 )

adică X este repartizată Cauchy.

Funcţia caracteristică pentru variabile aleatoare vectoriale

Să considerăm vectorul aleator X = (X1,X2,…,Xn) a cărei funcţie de repartiţie este


F(x1,x2,…,xn).
n
i ∑ tk X k
Definiţie. Funcţia ϕ:R→C definită prin ϕ ( t1, t 2,..., tn ) = M ( e k =1
) este funcţia
caracteristică a vectorului aleator (X1,X2,…,Xn).
n
i ∑ t k xk
Din definiţie rezultă că ϕ ( t1, t 2,..., tn ) = ∫ e k =1
dn F ( x1, x 2,..., xn ) ,
Rn
în cazul în care există densitatea de repartiţie f(x1,x2,…,xn),
n
i ∑ tk xk
ϕ ( t1, t 2,..., tn ) = ∫ e k =1
f ( x1, x 2,..., xn )dx1... dxn ,
Rn

iar în cazul discret,

60
n
i ∑ tk xk
ϕ ( t1, t 2,..., tn ) = ∑ ∑ ... ∑
x1 ∈S1 x 2 ∈S 2 x n ∈S n
e k =1
P( X 1 = x1, X 2 = x 2,..., Xn = xn ) ,

unde am notat cu Sk mulţimea valorilor variabilei aleatoare Xk, mulţime care este cel mult
numărabilă, 1 ≤ k ≤ n.

Propoziţie. Funcţia caracteristică a vectorului aleator (X1,X2,…,Xn) are următoarele


proprietăţi:
(a) ϕ(0,0,…,0) = 1
(b) |ϕ(t1,t2,…,tn)| ≤ 1
(c) ϕ ( − t1,− t 2,...,− tn ) = ϕ ( t1, t 2,..., tn )
(d) ϕ(t1,t2,…,tn) este uniform continuă pe Rn
(e) Dacă vectorul aleator X = (X1,X2,…,Xn) are funcţia caracteristică ϕX(u1,u2,…,un) şi se
n
consideră vectorul Y = (Y1,Y2,…,Yn), Yj = ∑ cjkXk + bj, 1 ≤ j ≤ m , atunci
k =1
m
i ∑ bjt j m
ϕY ( t 1, t 2,..., tm ) = e j =1
ϕ X ( u1, u2,..., un ) , unde uk = ∑ cjktj, 1 ≤ k ≤ n .
j=1

Vom deduce numai relaţia de la punctul (e), celelalte fiind simple transpuneri din
cazul unidimensional.

m n

∑ c jk X k + b j )
m m m n
i ∑tjXj i ∑tj( i ∑ bjt j i ∑ ∑ t j c jk X k
ϕ Y ( t1, t 2,..., tm ) = M ( e j =1
) = M (e j =1 k =1
) = M (e j =1
e j =1 k =1
)=
m n m m
i ∑ bjt j i ∑ ( ∑ t j c jk ) X k i ∑ bjt j m m m
=e j =1
M (e k =1 j =1
)=e j =1
ϕ X ( ∑ t j c j1 , ∑ t j c j 2 ,..., ∑ t j c jn )
j =1 j =1 j =1

m
m i ∑ bjt j
şi, dacă notăm uk = ∑ cjktj, 1 ≤ k ≤ n , obţinem ϕY ( t 1, t 2,..., tm ) = e j =1
ϕ X ( u1, u2,..., un )
j=1

Din funcţia caracteristică ϕX(t1,t2,…,tn) se pot obţine imediat funcţiile caracteristice ale
componentelor vectorului X:
ϕX k ( t k ) = ϕX ( 0,0,...,0, t k ,0,...,0) 1 ≤ k ≤ n

şi dacă vectorul X are componentele independente, atunci:

n
ϕX ( t1, t 2,..., tn ) = ∏ ϕX k ( tk )
k =1

Legătura cu momentele este dată de relaţia de mai jos: dacă vectorul X are momente
mixte de ordinul k1,k2,…,kn atunci:
n
∑ kj
1 ∂ ϕ ( t1, t 2,..., tn )
j =1

M k1,k 2,...,kn ( X 1, X 2,..., Xn ) = t1 =... = tn = 0


∂ t1 ∂ t 2 ...∂ tn
n k1 k2 kn
∑ kj
i j =1

61
Şi în cazul n-dimensional are loc formula de inversiune şi teorema de unicitate, al cărei enunţ
îl vom menţiona:

Fie ϕ(t1,t2,…,tn) şi F(x1,x2,…,xn) funcţia caracteristică, respectiv funcţia de repartiţie


a vectorului aleator (X1,X2,…,Xn). Dacă (a1,a2,…,an), (b1,b2,…,bn)∈Rn, aj < bj, 1 ≤ j ≤ n şi
funcţia F este continuă în punctele

(a1,a2,…,an), (a1,…,aj-1,bj,aj+1,…,an), (a1,…,aj-1,bj,aj+1,…, ,ak-1,bk,ak+1,…,an), (b1,b2,…,bn),

atunci:
P(a1 ≤ X1 < b1, a2 ≤ X2 < b2, ,..., an ≤ Xn < bn) =
c c
1 n
e − itk ak − e − itk bk
=
(2π ) n
lim ∫ ... ∫
c →∞

k =1 itk
ϕ ( t1, t 2,..., tn ) dt1... dtn
−c −c

Funcţia de repartiţie F(x1,x2,…,xn) este determinată în mod unic de funcţia ei


caracteristică.

2.10. Funcţia generatoare

Funcţia generatoare a unei variabile aleatoare a fost utilizată începând de la Laplace,


deci mult înainte de a se utiliza funcţia caracteristică. Am văzut că funcţia caracteristică are
proprietatea |ϕ(t)| ≤ 1 (deci mărginită) în timp ce funcţia generatoare nu mai este mărginită,
dar ea este deosebit de utilă îndeosebi pentru calculul momentelor.
Vom considera că variabila aleatoare X este discretă şi că ia numai valori întregi
nenegative.
Numim funcţie generatoare a variabilei aleatoare X funcţia G:C→C, prin relaţia:


Gx(z) = ∑ pkz k , pk = P(X = k), k∈N, cu |z| ≤ 1
k =0

Din definiţia dată rezultă că ϕx(t) = Gx(eit), care stabileşte o legătură între funcţia
caracteristică şi funcţia generatoare.
Tot din definiţie rezultă că funcţia generatoare determină în mod univoc repartiţia
variabilei aleatoare X
⎛k ⎞
X: ⎜ ⎟,
⎝ pk , k ∈ Ν ⎠
unde:
G (k)
x (0)
p0 = Gx(0); pk = , k = 1,2,3,…
k!

Se obţine imediat că variabila aleatoare X (variabila binomială)

⎛k ⎞
X: ⎜ k k n-k ⎟
⎝ C n p q , k = 0,1,2,..., n⎠
are funcţia generatoare Gx(z) = [1 + p(z - 1)]n, iar variabila

62
⎛k ⎞
⎜ ⎟
Y: ⎜ -λ λ k

⎜e , k = 0,1,2,..., n,...⎟
⎝ k! ⎠

are funcţia generatoare Gy(z) = eλ(z-1).

Funcţia generatoare se utilizează frecvent pentru calculul momentelor factoriale şi, cu


ajutorul acestora, a momentelor obişnuite şi centrate de diferite ordine, dacă acestea există.
Din definiţia funcţiei generatoare rezultă că ea are sens pentru |z| ≤ 1. Atunci,
derivatele în punctul z = 1, dacă există, vor fi luate ca derivate la stânga. Atunci:


G 'x (1) = ∑ k pk
k =1

G ''x (1) = ∑ k(k - 1) pk
k=2

x (1) = ∑ k(k - 1)...(k - s + 1) pk


G (s)
k=s

De aici rezultă că:

Gx(1) = M0(x) = 1
G 'x (1) = M1(x) = M(x)
G ''x (1) = M2(x) - M1(x)
G '''x (1) = M3(x) - 3M2(x) + 2M1(x)
G 'vx (1) = M4(x) - 6M3(x) + 11M2(x) - 6M1(x),
sau:
M1(x) = G 'x (1)
M2(x) = G ''x (1) + G 'x (1)
M3(x) = G '''x (1) + 3G ''x (1) + G ''x (1)
M4(x) = G 'vx (1) + 6G '''x (1) + 7G ''x (1) + G 'x (1)

Pentru calculul momentelor centrate utilizăm relaţia:

s
Hs( x ) = ∑ c sj ( −1) j M s − j ( x ) M1j ( x )
j= 0

Această relaţie este comodă şi se recomandă pentru valori mici ale lui s. În cazul când s va
avea valori mari, vom proceda în felul următor: notăm Z = ew şi dezvoltăm în serie de puteri
funcţia GX(ew).

63
Funcţia GX(Z) este dezvoltabilă în serie de puteri în punctul Z = 1 dacă ea este
r
regulată în acest punct. Dacă |w| ≤ r < 1, rezultă | e w − 1| ≤ şi, deci, dacă r este suficient
1− r
de mic, funcţia GX(ew) este regulată pentru |w| ≤ r.

∞ ∞
⎛ ∞ k S wS ⎞ ∞
wS ⎛ ∞ s⎞
Întrucât GX ( e w ) = ∑ pke wk = ∑ pk ⎜ ∑ ⎟ =∑ ⎜ ∑ pkk ⎟ , putem scrie mai
k =0 k =0 ⎝ k =0 s ! ⎠ k =0 s ! ⎝ k =0 ⎠
departe:

Ms( x ) s
Hx( w) = Gx( e ) = ∑
w
w
s= 0 s!

Funcţia Hx(w) poartă numele de funcţie generatoare de momente.

Momentele centrate se calculează acum utilizând funcţia:


Lx( w) = e − w M1( x )Hx( w) ,

întrucât
⎛ ∞ M1j ( x )w j ⎞ ⎛ ∞ M s ( x ) s ⎞ ∞ w s s
Lx( w) = ⎜ ∑ ( −1) j
⎟⎜∑ w ⎟ =∑ ∑ ( −1) j
Csj M1j ( x ) Ms − j( x ) =
⎝ j= 0 j ! ⎠ ⎝ j= 0 s! ⎠ j= 0 s ! j= 0


ws
= ∑ Hs( x )
s= 0 s!

Această funcţie mai poartă numele de funcţie generatoare a momentelor centrate.

64
Capitolul 3

LEGI DE REPARTIŢIE

În acest capitol ne vom ocupa de principalele legi de repartiţie ce intervin în aplicaţii


concrete sau în abordarea diverselor aspecte teoretice sau specifice din teoria probabilităţilor
şi statistica matematică.
Vom aborda mai întâi repartiţiile de tip discret, apoi cele caracterizate de o densitate
de repartiţie.

3.1. Repartiţii de tip discret

Cea mai simplă repartiţie discretă este repartiţia variabilei aleatoare X cu masa
concentrată într-un punct a∈R.

⎛ a⎞
X: ⎜ ⎟ , P(X=a) = 1, P(X≠a) = 0
⎝1 ⎠

Se obţine imediat că M(X) = a, D2(X) = 0, ϕ(t) = eita

⎧0, x ≤ a
Fa ( x ) = ⎨
⎩1, x > a

Urmează de aici că orice repartiţie discretă admite pentru funcţia de repartiţie reprezentarea:

⎛ aj ⎞
X: ⎜ , j ∈ J⎟ ; F(x) = ∑ pjFaj(x) ; pj = P(X=aj); j∈J, J cel mult numărabilă.
⎝ P(X = aj) ⎠ j∈J

Un caz aparte îl constituie repartiţia uniformă discretă:

⎛ aj ⎞
⎜ ⎟ 1
X: ⎜ 1 ,1 ≤ j ≤ n⎟ ; P(X = aj) = , 1 ≤ j ≤ n ;
n
⎝n ⎠
1 n 1 n 2 1 n
M(x) = ∑
n j= 1
aj ; D 2
(x) = ∑ a
n j=1 j
− ( ∑ a )2 ;
n j=1 j
1 n itaj
ϕ(t) = M(eitx) = ∑e ;
n j =1
1 n
F(x) = ∑ Faj(x)
n j=1

Dacă presupunem că a1<a2<…<an, atunci, evident,

65
⎧0 , x ≤ a1
⎪1
⎪n ,a1 < x ≤ a2
⎪...

F(X) = ⎨ k
⎪ ,ak < x ≤ ak + 1
⎪n
⎪...
⎪⎩1 , x > an

Repartiţia binomială

Spunem că variabila aleatoare X este repartizată binomial de parametri p şi n (0<p<1)


dacă P(X = k) = C kn p k q n − k , 0 ≤ k ≤ n, q = 1 − p . Vom scrie:

⎛0 1 ... k ... n ⎞
X: ⎜ 0 0 n n n 0 ⎟
⎝ Cn p q C1n p 1q n-1 C kn p k q n-k Cn p q ⎠

Denumirea vine de la faptul că P(X = k) = C kn p k q n − k sunt termenii dezvoltării


binomului
n
(p + q) n = ∑ C kn p k q n − k , q = 1 - p
k=0

Funcţia de repartiţie
⎧0 ,x ≤ 0
⎪q n ,0 < x ≤ 1

⎪...

F(X) = ⎨ j k k n − k
⎪∑ C n p q , j < x ≤ j+1
⎪ k=0
⎪...
⎪⎩1 ,x > n

Momentele obişnuite
n
MS(X) = ∑ k s C kn p k q n − k
k=0

Momentele centrate

n
µs(x) = ∑ [k − M(x)]s C kn p k q n − k
k=0

Înainte de a menţiona cum se calculează efectiv momentele, vom da funcţia caracteristică:

n n
ϕx(t) = M(e itx ) = ∑ e itk C kn p k q n − k = ∑ C kn (pe it ) k q n − k = (pe it + q) n
k=0 k=0

66
Calculul momentelor:
n
M(X) = ∑ kC kn p k q n − k
k=0
n
Considerăm egalitatea (p + q) n = ∑ C kn p k q n − k ca o funcţie de p.
k=0
Derivăm, înmulţim cu p ambii membri, apoi ţinem seama de faptul că p + q = 1 şi obţinem:

n n
n(p + q) n-1 = ∑ kC kn p k-1q n − k ; np(p + q) n-1 = ∑ kC kn p k q n − k
k =0 k =0

n
Deci, M(X) = ∑ kC kn p k q n − k = np.
k =0

Repetăm raţionamentul, luând derivata a doua şi înmulţind cu p2:

n
n(n − 1)(p + q) n − 2 = ∑ k(k − 1)C kn p k − 2 q n − k ;
k=2

n n n
n(n − 1)p 2 = ∑ k(k − 1)C kn p k q n − k = ∑ k 2 C kn p k q n − k − ∑ kC kn p k q n − k
k =0 k =0 k =0

Deci,
n
M2(x) = ∑ k 2 C kn p k q n − k = n 2 p 2 − np 2 + np = npq + n 2 p 2
k=0

Pentru calculul momentului M3(X):

n
n(n − 1)(n − 2)(p + q) n − 3 = ∑ k(k - 1)(k - 2)C kn p k-3q n − k
k =0

n
n(n − 1)(n − 2)p 3 = ∑ k(k - 1)(k - 2)C kn p k q n − k =
k=0
n n n
= ∑ k 3 C kn p k q n − k − 3∑ k 2 C kn p k q n − k + 2∑ kC kn p k q n − k
k=0 k =0 k =0

Urmează că:
M3(X) = n(n -1)(n - 2)p 3 + 3M2(x) - 2M(x) = n 3 p 3 + 3n 2 p 2q + npq(1- 2p)

În mod analog, se obţine:


M4(X) = n 4 p 4 + 6n 3 p 3q + n 2 p 2 (7 -18p + 11p 2 ) + np(1- 7p + 12p 2 - 6p 3 )

La aceleaşi rezultate se poate ajunge pornind de la funcţia caracteristică


ϕ(t) = (peit + q)n,

67
pe baza relaţiei:
ϕ (r) (0)
Mr(X) = , r = 1,2,…
ir
n
Pentru calculul momentelor obişnuite, se mai poate folosi şi faptul că X = ∑ Xj ,
j= 1

Xj fiind variabile aleatoare independente identic repartizate

⎛ 1 0⎞
Xj = ⎜ ⎟, 1≤ j ≤ n
⎝ p q⎠

n
Atunci, M(X) = ∑ M(Xj) = np
j =1

⎡⎛ n ⎞ 2 ⎤ ⎡n 2 ⎤ n
M 2 (X) = M ∑ Xj
⎢ ⎜ ⎟ ⎥ = M ⎢∑ X j + 2∑ X j Xk ⎥ = ∑ M(X 2j ) + 2∑ M(X j )M(Xk) = np + 2C 2n p 2 =
⎢⎣⎝ j=1 ⎠ ⎥⎦ ⎣ j=1 j< k ⎦ j=1 j< k

= np + n(n − 1)p 2 = n 2 p 2 + npq

Analog se calculează celelalte momente, de ordin mai mare decât doi, dificultatea
3 4
⎛ n ⎞ ⎛ n ⎞
constând în a exprima doar puterile ⎜ ∑ Xj⎟ , ⎜ ∑ Xj⎟ etc.
⎝ j=1 ⎠ ⎝ j=1 ⎠
Pentru obţinerea momentelor centrate folosim relaţia:

r
µ r (X) = ∑ (-1) j C rj Mr − j(X)M j (X)
j=0

şi astfel obţinem:

µ1(x) = 0; µ2(x) = npq; µ3(x) = npq (q-p); µ4(x) = 3n2p2q2 + npq (1-6pq)

În general,
µ2r(x) = a0nr + a1nr-1 + … + ar-1n,

µ2r+1(x) = b0nr + b1nr-1 + … + br-1n.

Putem acum exprima coeficienţii de asimetrie şi exces.

µ 3( x ) npq( q − p) 1 − 2 p
Asimetria: γ 1 = = = .
µ 23/ 2 ( x ) ( npq)3/ 2 ( npq)1/ 2

Dacă n → ∞ , atunci repartiţia binomială tinde către una simetrică: γ1→0.

µ 4( x ) 3n 2 p 2 q 2 + npq(1 − 6 pq ) 1 − 6 pq
Excesul: γ 2 = 2 −3= −3=
µ2 ( x ) 2 2 2
n p q npq

68
Am văzut că P(X=k) = C kn p k q n − k , k = 0,1,2,…,n. Atunci, valoarea cea mai probabilă
este dată de:

P(X = k-1) ≤ P(X = k) ≥ P(X = k+1)

Din dubla inegalitate

k-1 n − k +1
C k-1
n p q ≤ C kn p k q n − k ≤ C kn +1 p k +1q n − k-1
se obţine:
np - q ≤ k ≤ np + p

În general, np + p nu este întreg şi atunci nici np - q nu este întreg, caz în care o unică
valoare are cea mai mare probabilitate.
În cazul excepţional când np + p este întreg, rezultă că şi np - q este întreg, şi atunci
avem două valori ce corespund probabilităţilor maxime:

P(X = np - q) = P(X = np + p)

Repartiţia Poisson

Spunem că variabila aleatoare X urmează o repartiţie Poisson de parametru λ, λ > 0,


λk
dacă P(X = k) = e -λ , k = 0,1,2,….
k!
Vom scrie
⎛ k ⎞
X: ⎜ -λ λ k = 0,1,2,...⎟
k
⎜e , ⎟
⎝ k! ⎠
∞ ∞
λk
Este vorba de un sistem complet de probabilităţi, întrucât ∑ P( X = k ) = ∑ e −λ
k=0 k=0 k!
=1 .

Funcţia de repartiţie este:


⎧0 , x≤0
⎪e -λ , 0 < x ≤1

⎪...

F(x) = ⎨ k -λ λ j
⎪∑ e j! , k < x ≤ k + 1
⎪ j=0

⎪⎩...
Funcţia caracteristică este:

λk ∞
( λe it ) k
ϕ (t) = M(e itx ) = ∑ e itx e -λ = e -λ ∑
k =0 k! k =0 k!
it
ϕ (t) = e λ (e -1)

Momentele obişnuite:

λk ∞
λ k −1
M(x) = ∑ ke - λ = e -λ λ ∑ =λ
k=0 k! k=1 ( k − 1)!

69

λk ∞
λk −1 ∞
λk −1
M2(X) = ∑ k 2 e -λ = e -λ λ ∑ k = e -λ λ ∑ ( k − 1 + 1) =
k=0 k! k=1 ( k − 1)! k=1 ( k − 1)!
⎡ ∞ λk − 2 ∞
λk −1 ⎤
= e λ ⎢λ ∑

+∑ ⎥ = λ2 + λ
⎣ k=2 ( k − 2)! k=1 ( k − 1)!⎦
Analog,
M3(X) = λ3 + 3λ2 + λ

M4(X) = λ4 + 6λ3 + 7λ2 + λ



ϕ ( r ) (0)
La aceleaşi rezultate se ajunge cu ajutorul funcţiei caracteristice Mr(X) = .
ir
Momentele centrate:

µ1(x) = 0; µ2(x) = λ; µ3(x) = λ; µ4(x) = 3λ2+λ

Coeficienţii de asimetrie şi exces:

µ3 ( x ) λ 1
γ1 = = 3/ 2 = 1/ 2
µ2 ( x) λ
3/ 2
λ
µ4 ( x ) 3λ 2 + λ 1
γ2 = − 3 = − 3=
µ2 ( x)
2
λ 2
λ

Repartiţia Poisson intervine în aplicaţii în studiul evenimentelor rare, drept urmare


mai este cunoscută sub numele de legea evenimentelor rare. Aşa, de exemplu, dacă se alege
un interval de timp unitate (de lungime convenabilă), atunci numărul de apeluri la o centrală
telefonică, numărul de autovehicule ce trec printr-o intersecţie în intervalul de timp
considerat, urmează o lege de repartiţie Poisson.

Repartiţia binomială cu exponent negativ

Se consideră un eveniment A care are probabilitatea p de a se realiza şi probabilitatea


q = 1 - p de a se realiza A . Efectuăm k probe, până când evenimentul A se realizează de m
ori; k ≥ m. Dacă notăm cu Pm(k) probabilitatea corespunzătoare, atunci:
m k−m
P(X1 = k) = Pm(k) = C m-1
k-1 p q

Am obţinut astfel repartiţia:


⎛k ⎞
X1: ⎜ m-1 m k − m , k = m, m + 1, ...⎟
⎝ C k-1 p q ⎠


Să arătăm că ∑ P( X
k=m
1 = k ) = 1 . Într-adevăr,
∞ ∞ ∞ ∞


k=m
P(X1 = k) = ∑
k=m
C m-1
k-1
m
p q k−m
=p m

k=m
C q m-1
k-1
k−m
=p m

l=m
m+l-1q = p (1 − q)
C m-1 l m −m
= 1,

cu k - m = l.

70
−m
⎛ 1 q⎞
Întrucât Pm(k) este termenul general al dezvoltării binomului p (1- q) = ⎜ − ⎟ m -m
⎝ p p⎠
cu exponent negativ, se justifică numele de repartiţie binomială cu exponent negativ.
Aplicaţiile repartiţiei binomiale cu exponent negativ se întâlnesc în modelarea
fenomenelor de contagiune şi teoria estimaţiei.
Să studiem pentru început cazul când m = 1. Atunci, P( X 1 = k ) = pq − 1, k = 1,2,3... .
Rezultă, acum, imediat:

p 1
M(X1) = ∑ kpq k −1 = 2 =
k =1 (1 − q) p

M2(X1) = ∑ k 2 pq k −1
k =1
∞ ∞ ∞
1 p 2
∑qk =
k=0 1− q
; ∑ kq k −1 =
k =1 (1 − q) 2
; ∑ k(k - 1)q
k=2
k−2
=
(1 − q) 3
∞ ∞ ∞
2q 2q
∑ k(k - 1)q
k =1
k −1
=
p3
; ∑k
k =1
2
q k −1 − ∑ kq k −1 =
k =1 p3
∞ ∞
2pq
p ∑ k 2 q k −1 = 3 + p∑ k q
k −1

k =1 p k =1

De aici, urmează că:

2q 1
M2(X1) = + ;
p2 p
2q 1 1 2q + p − 1 q + (p + q) − 1 q
D 2 (X1) = M2(X1) − M 2 (X1) = + − = = = 2
p2 p p2 p2 p2 p

Momentele, însă, le putem calcula mai uşor de la funcţia generatoare a momentelor factoriale
∞ ∞
pt p p
Φ(t) = ∑ t pq = pt∑ (qt) k −1 =
k k-1
= − + (1- qt) −1
k =1 k =1 1 − qt q q
Atunci:
dΦ ( t ) 1
M (1) ( X 1) = =
dt t = 1 p
d 2 Φ( t ) 2!q
M ( 2) ( X 1) = =
dt 2 t =1
p2
d 3 Φ( t ) 3! q 2
M ( 3) ( X 1) = = 3
dt 3 t =1
p
...
d r Φ( t ) r ! q r −1
M ( r ) ( X 1) = =
dt r t =1
pr
...
De aici urmează:

71
1
M1(X1) = M (1) (X1) = ;
p
1 2q
M2(X1) = M (1) (X1) + M (2) (X1) = + ;
p p2
1 6q 6q
M (3) (X1) = M (1) (X1) + 3M (2) (X1) + M (3) (X1) = + +
p p2 p3
...

Înainte de a trece la cazul m oarecare, să determinăm funcţia caracteristică a variabilei


X1 în cazul m=1.

∞ ∞
pe it
ϕ X ( t ) = ∑ e itk pq k −1 = pe it ∑ ( qe it )
k −1
=
1
k =1 k =1 1 − qe it

Să presupunem acum că am efectuat X1 probe până ce s-a realizat o dată evenimentul


A, apoi X2 probe până s-a realizat o dată A ş.a.m.d., Xm probe până s-a realizat o dată
evenimentul A. Aşadar, dacă notăm cu X numărul de probe până s-a realizat de m ori
m
evenimentul A, atunci X = ∑ Xj , X1,X2,…,Xm independente. Atunci,
j=1
m
m
⎛ pe it ⎞ 1 dϕ X ( t ) m
ϕ X ( t ) = ∏ ϕ Xj ( t ) = ⎜ ⎟ ; M ( X ) = = .
j =1 ⎝ 1 − qe ⎠
it
i dt t = 0 p
Analog,
1 d 2ϕ X ( t ) m 2mq 1 mq
M 2( X ) = 2 2 = + 2 + m( m − 1) 2 ; D 2
(X) =
i dt t =0 p p p p2

Prin calcule directe, se determină coeficienţii de asimetrie şi exces:

2− p 1+ q
γ1 = 1/ 2 =
( mq) ( mq)1/ 2
p 2 − 6p + 6
γ2 =
mq

Repartiţia geometrică:

⎛k ⎞
X: ⎜ k-1 ; k = 1,2,3...⎟
⎝ pq ⎠

este caz particular al repartiţiei binomiale cu exponent negativ, pentru m=1, pe care am
studiat-o în amănunt.

Repartiţia hipergeometrică
este dată de variabila X care reprezintă numărul de bile albe existente printre cele n bile
extrase fără revenire, dintr-o urnă cu A bile albe şi B bile negre.

72
C kA C nB− k
Atunci, după cum ştim, Pn(k) = . Întrucât 0 ≤ k ≤ A, 0 ≤ n-k ≤ B, rezultă
C nA + B

max (0, B - n) ≤ k ≤ min (A, n)


şi, deci,
⎛k ⎞
⎜ k n−k ⎟
X: ⎜ C A C B max (0, B − n) ≤ k ≤ min (A, n)⎟
⎜ ; ⎟
⎝ C nA + B ⎠
Dacă facem k = 0, atunci
B(B − 1)...(B − n + 1)
Pn(0) =
(A + B)(A + B − 1)...(A + B − n + 1)

Cu această relaţie, probabilitatea Pn(k) se poate pune sub forma:

n(n − 1)...(n − k + 1) A(A − 1)...(A − k + 1)


Pn(k) = Pn(0)
k! (B - n + 1)(B − n + 2)...(B − n + k)

Pentru calculul momentelor, procedăm în modul următor: dintr-o urnă care conţine A
bile albe şi B bile negre (A+B=N) efectuăm n extrageri succesive, fără a pune înapoi bila
extrasă. Vom avea astfel succesiunea de variabile aleatoare dependente X1,X2,…,Xn, fiecare
având repartiţia:
⎛ 1 0⎞
Xi: ⎜ ⎟ , pi + qi = 1
⎝ pi qi⎠

Deci avem de calculat primele momente ale variabilei X = X1 + X2 +…+Xn.

n
A(N − 1)! A
Atunci M(X) = ∑ M(Xi) = nP(Xi = 1) . Cum P(Xi = 1) = = = p , deci M(X) = np,
i =1 N! N

n
M2(X) = M(X 2 ) = ∑ M(X 2i ) + 2∑ M(XiXj) = np + n(n − 1)M(XiXj) .
i =1 i< j

Avem de considerat situaţiile:

(Xi = 1, Xj = 1), (Xi = 1, Xj = 0), (Xi = 0, Xj = 1), (Xi = 0, Xj = 0)

Atunci produsul XiXj ia valoarea diferită de zero (valoarea 1) cu probabilitatea


P(Xi=1,Xj=1).

A(A -1)(N − 2)! A(A -1) p(Np − 1)


Însă P(Xi = 1, Xj = 1) = = = .
N! N(N -1) N −1

(Np − 1)p 1
Deci, M2(X) = np + n(n − 1) = [(Np − 1)pn 2 + Npqn] , cu q = 1 - p.
N −1 N −1

73
N−n
De aici, urmează că D 2 (X) = npq .
N −1

Observaţie. Dispersia corespunzătoare la n probe în repartiţia hipergeometrică diferă de


N−n
dispersia binomială prin factorul < 1. Dacă N = n, D2(X)=0, adică dispare factorul
N −1
aleator. În plus,
N−n
lim D 2 (X) = lim npq = npq ,
N →∞ N →∞ N − 1

care este dispersia unei variabile Bernoulli.

Repartiţia multinomială (variabilă aleatoare vectorială de tip discret).

Am văzut că dacă avem o urnă cu bile de s culori care conţine a1 bile de culoarea 1, a2
bile de culoarea 2, …, as bile de culoarea s, atunci probabilitatea de a obţine în n extracţii
succesive, cu revenire, α1 bile de culoarea 1,α2 bile de culoarea 2,…,αs bile de culoarea s
este:

n!
Pn(α 1, α 2,..., αs ) = p α1 p α 2 ... p sα s , α1 + α2 + … + αs = n
α 1 !α 2 !...αs ! 1 2

Dar, probabilităţile p1,p2,…,ps ≥ 0, p1 + p2 +…+ ps = 1.

n
Atunci, variabila multinomială de studiat este variabila X = ∑ Xk , unde X1,X2,…,Xn sunt
k =1
variabile aleatoare independente, având repartiţiile:

⎛ e1 e2 ... es ⎞
X: ⎜ ⎟, 1≤k≤n
⎝ p1 p2 ... ps⎠

e1 = (1,0,0,…0)
e2 = (0,1,0,…,0)

es = (0,0,0,…,1)

⎛ (α1 , α 2 ,..., α s ) s

X :⎜
⎝ Pn(α1 , α 2 ,..., α s )
; 0 ≤ α i ≤ n; ∑α
i =1
i = n⎟

Să arătăm că este vorba de un sistem complet de probabilităţi:

n!
∑ P (α , α ,..., α ) =
α α α
( 1 , 2 ,..., s )
n 1 2 s ∑
α α α
( 1 , 2 ,..., s )
p α1 p α 2 ... psα s = ( p1 + p2 +...+ ps ) n = 1
α1 !α 2 !...α s ! 1 2
α1 +α 2 + ...+ α s = n α1 +α 2 + ...+ α s = n

Pentru calculul momentelor să determinăm mai întâi funcţia caracteristică a vectorului


Xk:

74
ϕ Xk ( t1, t 2,..., ts ) = p1e it + p2e it +...+ pse it
1 2 s

n
Cum X = ∑ Xk ,
k =1
n
n ⎛ s ⎞
ϕ X ( t1, t 2,..., ts ) = ϕ n ( t1, t 2,..., ts ) = ∏ ϕ X k ( t1, t 2,..., ts ) = ⎜ ∑ pje itj ⎟
∑ Xk
k =1 k =1 ⎝ j =1 ⎠

La aceleaşi rezultate putem ajunge şi prin calcul direct:

ϕ X ( t1, t 2,..., ts ) =
α α
∑α e ( t1α1 + t 2α 2 + ...+ t sα s ) i
Pn(α1 , α 2 ,..., α s ) =
1 , 2 ,..., s ≥ 0
α1 +α 2 + ...+ α s = n

n!
=
α α
∑α α1 !α 2 !... α s !
p1α1 p 2α 2 ... p sα s e ( t1α1 + t2α 2 +...+ t sα s ) i =
1 , 2 ,..., s ≥0
α1 +α 2 + ...+ α s = n

n!
=
α α
∑α α1 !α 2 !... α s !
( p1e it1 ) α1 ( p 2e it 2 ) α 2 ...( pse it s ) α s = ( p1 e it1 + p 2 e it2 +...+ p s e it s ) n
1 , 2 ,..., s ≥0
α1 +α 2 + ...+ α s = n

n
⎛ s ⎞
Deci, ϕ X ( t1, t 2,..., ts ) = ⎜ ∑ pjei tj ⎟ . De aici urmează:
⎝ j =1 ⎠

1 ∂ϕ ( t1, t 2,..., ts ) ⎡n it ⎤
M (αj ) = = ⎢ pj( p1e it1 +...+ pse its ) n −1 ie j ⎥ = npj
i ∂tj t1 = t2 = ...= t s = 0 ⎣i ⎦ t1 = t2 =...= ts = 0

1 ∂ 2ϕ ( t1, t 2,..., ts )
M (α 2j ) =
2 it j
= [n( n − 1) p 2j ( p1e it1 +...+ pse its ) n − 2 e +
i2 ∂t 2j t1 = t 2 = ...= t s = 0
it
+ npj( p1e it1 +...+ pse its ) n −1 e j ]t1 = t2 = ...= ts = 0 = n( n − 1) p 2j + npj = n 2 p 2j + npj(1 − p j )

D 2 (αj ) = npj(1 − pj ), 1 ≤ j ≤ s

1 ∂ 2ϕ ( t1,..., ts )
M (αjαk ) =
it
= n( n − 1) pjpk ( p1e it1 +...+ pse its ) n − 2 e j e itk =
i2 ∂tj∂tk t1 = t 2 = ...= t s = 0 t1 = t2 = ...= t s = 0

= n(n -1)pjpk, j, k = 1,2,...,s; j ≠ k

3.2. Repartiţii care admit densitate de repartiţie. Repartiţia normală N(m,σ)

Prin definiţie, spunem că variabila aleatoare X urmează o lege normală de parametri


m şi σ şi vom nota X ∈ N(m;σ), dacă densitatea ei de repartiţie este:

75
( x − m )2
1 −
f X ( x; m, σ ) = , x ∈ ( −∞ , ∞ ), m ∈ ( −∞ , ∞ ), σ ∈ ( 0, ∞ ) fiind parametrii repartiţiei.
e 2σ 2
σ 2π
Dacă m=0, σ=1, spunem că variabila este normată sau standard şi scriem Y ∈
N(0;1).
Se verifică imediat că fX(x;m,σ) este o densitate de repartiţie. Într-adevăr,

fX(x;m,σ) ≥ 0, x ∈ (-∞,∞)

∞ ( x − m )2 ∞ y2
1 − 1 − x−m
şi
σ 2π −∞
∫e 2σ 2
dx =

∫e
−∞
2
dy = 1 , cu y =
σ
.

x−m
x ( y − m )2 σ
⎛ x − m⎞
z
1 − 1 −
Funcţia de repartiţie FX ( x ) =
σ 2π ∫e
−∞
2σ 2
dy =
2π ∫ 0
e 2 dz = O/ ⎜
⎝ σ ⎠
⎟,
z2
y−m 1
x

cu z =
σ
, unde am pus O/ ( x ) =

∫e
−∞
2
dz , funcţia lui Laplace, care este tabelată.

x z2
~ 1 −
În multe situaţii găsim tabelată funcţia O/ ( x ) =

∫e
0
2
dz , x>0.

Atunci, pe baza relaţiei

x y2 0 y2 x y2 x y2
~ 1 − 1 − 1 − 1 1 −
O/ ( x ) =

∫e
−∞
2
dy =

∫e
−∞
2
dy +

∫e
0
2
dy = +
2 2π
∫e
0
2
dy

De aici, rezultă:
⎧1 ~
⎪2 + O/ (x) , x > 0
⎪⎪ 1
O/ ( x ) = ⎨ ,x = 0
⎪2
⎪1 − O
~
/ (x) , x < 0
⎪⎩ 2

Dacă se consideră funcţia densitate de repartiţie fX(x;m,σ), obţinem imediat că ea este


1
simetrică faţă de dreapta x = m, că x = m este punct de maxim şi f max = f ( m) = .
σ 2π
Din
( x − m)2
x−m 1 −
f '
=− e 2σ 2
;
(x)
σ 2
σ 2π
( x − m)2 ( x − m )2 ( x − m )2
1 − ( x − m) 2 1 − 1 − ⎡ ( x − m) 2 ⎤
''
= + = − 1⎥
2 2
2σ 2σ 2σ 2
f e e e ⎢
(x)
σ 3 2π σ4 σ 2π σ 3 2π ⎣ σ
2

rezultă că x = m ± σ sunt puncte de inflexiune pentru fX(x;m,σ).

76
Pentru determinarea momentelor obişnuite de ordin k, vom stabili momentele de ordin
k ale variabilei X ∈ N(0;1). Atunci:

∞ x2 ⎧ 0 , k = 2s + 1
1 − ⎪ ∞
∫x
x2
Mk ( X ) = k
e 2
dx = ⎨ 2 2s − 2
2π −∞ ⎪ 2π ∫x e dx , k = 2s
⎩ 0
∞ x2
1 −
∫x
2 s +1
e 2
dx = 0 , deoarece funcţia integrant este impară.
2π −∞

∞ x2 ∞ 1
2 2s − 2 2s s− 2s ⎛ 1⎞ 2s ⎛ 1⎞ ⎛ 1⎞
2π ∫x e
0
dx =
2π ∫
0
y 2
e − y dy = Γ⎜ s + ⎟ =
π ⎝ 2⎠
⎜ s − ⎟ Γ ⎜ s − ⎟ =... =
π ⎝ 2⎠ ⎝ 2⎠
s
2 ⎛ 1⎞ ⎛ 3⎞ 3 1 ⎛ 1 ⎞ ( 2 s )! x2
= ⎜ s − ⎟⎜ s − ⎟ ... Γ ⎜ ⎟ = ( 2 s − 1)( 2 s − 3)...3 ⋅ 1 = (cu y = )
π ⎝ 2⎠ ⎝ 2⎠ 2 2 ⎝ 2⎠ s !2 s 2
⎧⎪ 0 , k = 2s + 1
Deci, Mk ( X ) = ⎨ ( 2s )!
⎪⎩ s!2 s , k = 2s

Momentele centrate de ordin k ale variabilei Y ∈ N(m,σ) se pot calcula acum imediat:
µk (Y ) = Mk[Y − M (Y )] = Mk (Y − m) = Mk (σX ) = σ k Mk ( X )

Y−m
= X ⇒ Y − m = σX
σ

⎧ 0 , k = 2s + 1

Deci, µ k (Y ) = ⎨ ( 2 s )!
⎪ s !2 s
σ 2s , k = 2s

Pentru k = 1, obţinem µ1(Y) = M(Y-m) = M(Y) - m = 0. Deci, M(Y) = m.


2! 2
Pentru k = 2, obţinem µ 2 (Y ) = σ = σ 2 = D 2 (Y ) , adică parametrii legii normale N(m,σ)
1! 2
au următoarea interpretare probabilistică:

m = M(Y), σ2 = D2(Y) (Y ∈ N(m,σ))

Asimetria şi excesul în cazul unei legi normale N(m,σ) au valorile:

µ3 µ4 4!σ 4

A= 3/ 2 = 0; E = 2 −3= −3= 0
( µ2 ) µ2 2!2 2 σ 4

Acesta este motivul pentru care în statistica descriptivă se consideră că dacă asimetria şi
excesul unei repartiţii sunt zero, se poate considera că este vorba de o lege de repartiţie
normală. Evident, faptul că asimetria şi excesul sunt egale cu zero constituie o condiţie
necesară dar nu şi suficientă de normalitate a unei repartiţii.

77
Funcţia caracteristică. Vom stabili mai întâi funcţia caracteristică a variabilei
aleatoare X∈ N(0,1). Aplicând definiţia, obţinem:
∞ x2 ∞ x2
1 − 1 ⎛ ∞
t k k
e ⎞ −
ϕ X (t ) = M (e ) = ∫ e e 2 dx = 2π −∞∫ ⎜⎝ ∑
itx itx k
x ⎟ e 2 dx
2π −∞ k=0 k ! ⎠

Seria de sub integrală fiind absolut şi uniform convergentă, se pot permuta operatorii
∞ ∞

∫ şi ∑
k=0
şi obţinem:
−∞
s
⎛ t2 ⎞
∞ x2 ⎜ ⎟ t2
s ⎝

t kik 1 ∞
t 2 s ( −1) s ( 2 s )! ∞ 2⎠
ϕ X (t ) = ∑ x e dx = ∑
k − 2
s = ∑ ( −1)

k =0 k !

2π −∞ s= 0 ( 2 s )! s !2 s= 0 s !
=e 2

De aici obţinem funcţia caracteristică a variabilei aleatoare Y∈N(m,σ), ţinând cont de


faptul că Y = m + σX. Deci,
ϕY ( t ) = M ( e itY ) = M [e it ( m+σX ) ] = M (e itm+ itσX ) ) = e itm M (e itσX ) = e itmϕ X (σt )

t 2σ 2
itm− ϕ ( k ) ( 0)
Deci ϕ Y ( t ) = e 2
. De aici rezultă, aplicând relaţia M k (Y ) = ,
ik
t 2σ 2
itm −
pentru k = 1, ϕ ( t ) = ( im − tσ )e
'
Y
2 2
;
M(Y) = m

t 2σ 2 t 2σ 2
itm − itm −
pentru k = 2, ϕ ( t ) = −σ e
''
Y
2
+ ( im − tσ )e
2 2 2

i 2σ 2 + i 2 m 2
M 2(Y ) = 2 = σ 2 + m2 ,
i

ceea ce obţinusem pe cale directă.


Să remarcăm faptul că se poate calcula funcţia caracteristică pe baza unui calcul
formal, care este de fapt justificat, după cum urmează: dacă X∈N(0,1), atunci:

∞ x2 t2 ∞ 1
1 itx − − 1 − ( x − it )2
ϕ X (t ) = M (e ) = ∫e dx = e ∫e
itX 2 2 2
dx
2π −∞ 2π −∞

1 z2
− ( x − it )2 −
Integrala funcţiei e de-a lungul axei OX este egală cu integrala funcţiei e
2
pe 2

o dreaptă paralelă cu axa OX: z = x + iy, unde y = -t (constant), dz = dx. Într-adevăr, conform
z2

teoremei lui Cauchy aplicată la integrala funcţiei e 2
, derivabilă în tot planul, de-a lungul
conturului C de mai jos:
y

-A A x

78
este nulă şi la limită, când A → ∞.
În cele ce urmează vom folosi această modalitate de calcul fără a mai face justificarea
menţionată mai sus.
t2 t 2σ 2
− itm−
Deci, ϕ X ( t ) = e 2
şi mai departe, pentru Y∈N(m,σ), ϕY (t ) = e 2
.

3.3. Repartiţia uniformă pe un interval [a,b].

Definiţie. Spunem că variabila aleatoare X are o repartiţie uniformă pe intervalul [a,b] dacă
densitatea de repartiţie are expresia:
⎧⎪ 1
, x ∈[a , b]
fX ( x ) = ⎨ b − a
⎪⎩ 0 , x ∉[a , b]

De aici urmează că funcţia de repartiţie are expresia:


⎧0 ,x ≤ a
x
⎪x − a
F ( x ) = ∫ f ( u) du = ⎨ ,a < x ≤ b
−∞ ⎪b − a
⎩1 ,x > b

Funcţia caracteristică:
b
e itx e itb − e ita
ϕ ( t ) = M ( e itX ) = ∫ dx =
a
b− a it ( b − a )

Momentele obişnuite:
b
1 b k + 1 − a k +1
b − a ∫a
Mk ( X ) = x dx =
k
( k + 1)( b − a )

a+b b 2 + ab + a 2
Pentru k = 1, obţinem M ( X ) = , iar pentru k = 2, M 2( X ) = ;
2 3

b 2 + ab + a 2 ( a + b) 2 ( b − a ) 2
D 2 ( X ) = M 2( X ) − M 2 ( X ) = − = .
3 4 12

Asimetria: γ1 = 0.

Excesul: γ2 = -1,2.

Dacă a = 0, b = 1, avem o repartiţie uniformă pe intervalul [0,1]. Repartiţia uniformă


intervine în aplicaţii ale metodei Monte-Carlo.

Repartiţia Pareto:
Spunem că variabila aleatoare X are o repartiţie Pareto de parametru α, dacă
densitatea de repartiţie este:

79
⎧ (α − 1)x 0α −1
⎪ , x ∈( x 0 , ∞ ) , α > 1
f ( x, α ) = ⎨ xα
⎪⎩0 , în rest , x0 > 0

Se constată imediat că f(x,α) este o densitate de repartiţie, întrucât f(x,α) ≥ 0 oricare


ar fi x ∈ R şi ∫ f ( x, α ) dx = 1.
−∞

∞ ⎧ 0 , x ≤ x0
⎪ α −1
Funcţia de repartiţie este: F ( x , α ) = ∫ f ( u, α ) du = ⎨ ⎛ x 0 ⎞
−∞ ⎪1 − ⎜⎝ x ⎟⎠ , x > x0

∞ ∞
x
Valoarea medie: M ( X ) = ∫ (α − 1) x 0 α −1
dx =(α − 1) x 0α −1 ∫ x −α +1 dx
x0 xα x0

Integrala respectivă este convergentă dacă α > 2.


α −1
Deci, pentru α > 2 există M(X) şi are valoarea M ( X ) = x .
α−2 0
Pentru α > 3 există şi M2(X) şi are valoarea

∞ ∞
x2 α −1 2
M 2 ( X ) = ∫ (α − 1) x 0 α −1 α −1
α dx =(α − 1) x 0 ∫ x −α + 2 dx . M2 ( X ) = x .
x0
x x0
α −3 0

α − 1 2 (α − 1) 2 2 (α − 1) x 02
Deci, D ( X ) = M 2 ( X ) − M ( X ) =
2 2
x − x =
α − 3 0 (α − 2) 2 0 (α − 3)(α − 2) 2


xk (α − 1) k
În general, dacă α > k+1, există Mk(X) şi M k ( X ) = ∫ (α − 1) x 0α dx = x .
x0 x α
α − k +1 0

3.4. Repartiţia Gama de parametri a,b > 0

Definiţie. Spunem că variabila aleatoare X are o repartiţie Gama de parametri a,b, dacă
densitatea ei de repartiţie are expresia:

⎧ 1 −
x
⎪ a x a −1e b , x>0
f ( x ) = ⎨ b Γ( a )
⎪⎩0 , x ≤ 0,
a,b > 0.
Se constată imediat că f este o densitate de repartiţie, întrucât f(x)≥0, x∈R şi

∞ ∞ x
1 a −1 − b

−∞
f ( x ) dx =
b a Γ ( a ) ∫0
x e dx = 1

80
⎧0 ,x ≤ 0
⎪ 1 x y
Funcţia de repartiţie: F ( x ) = ⎨ −

⎪⎩ b Γ ( a ) 0
a y a −1e b dy , x > 0

Funcţia caracteristică:

∞ x ∞
1 − 1 ba 1
b a Γ ( a ) ∫0 ∫y
ϕ X ( t ) = M ( e itX ) = e itx a −1
x e b
dx = a −1
e − y dy =
b a Γ ( a ) (1 − ibt ) a 0 (1 − ibt ) a

Deci, ϕX(t) = (1 - ibt)-a .

Momentele obişnuite:

∞ ∞
1 −
x
b a+k b k Γ(a + k )
b a Γ ( a ) ∫0 b a Γ ( a ) ∫0
a + k −1 a + k −1 − y
Mk ( X ) = x e b
dx = y e dy = =
Γ(a )
= b k ( a + k − 1)( a + k − 2)...( a + 1)a

Momentele centrate:

k
µk ( X ) = ∑ ( −1) j Ckj M k − j ( X ) M j ( X )
j =0

M1(X) = ab
M2(X) = b2 a(a+1)
M3(X) = b3a(a+1)(a+2);
M4(X) = b4a(a+1)(a+2)(a+3)

µ2(X) = ab2;

µ3(X) = M3(X) - 3M2(X)M(X) + 2M3(X) = 2ab3;

µ4(X)= M4(X) - 4M3(X)M(X) + 6M2(X)M2(X) - 3M4(X) = 3b4a(a+2).

De aici rezultă:
2
Coeficientul de asimetrie γ 1 = .
a
6
Coeficientul de exces γ 2 = .
a

Pentru a = 1 se obţine repartiţia exponenţială de parametru b:

⎧ 1 − xb ,x ≤ 0
, x > 0 ; F(x) = ⎧⎪
⎪ 0
f(x) = ⎨ b e ⎨ −
x
; b>0
⎪⎩0 ,x ≤ 0 ⎪⎩1 − e b ,x > 0

ϕ(x) = (1 - ibt)-1

81
M1(X) = b; M2(X) = 2b2; M3(X) = 6b3; M4(X) = 24b4;

µ1(X) = 0; µ2(X) = b2; µ3(X) = 2b3; µ4(X) = 9b4;

γ1 = 2 γ2 = 6

obţinute prin particularizare, din valorile corespunzătoare ale repartiţiei Gama.

Repartiţia χ 2
(n) (hi pătrat)cu n grade de libertate

Definiţie. Variabila aleatoare X are o lege de repartiţie χ 2


(n) (hi pătrat)cu n grade de libertate
şi parametru σ > 0 dacă densitatea ei de repartiţie are expresia:

⎧0 ,x ≤ 0
⎪⎪ 1 n x2
−1 − 2
f (x) = ⎨ n x 2 e 2σ ,x > 0
⎛ n
⎪ 2 2 σ n Γ⎜ ⎟ ⎞
⎪⎩ ⎝ 2⎠

n
Se constată imediat că, dacă în repartiţia Gama punem a = , b = 2σ2, se obţine
2
tocmai repartiţia χ (2n ) . Drept urmare, vom considera rezultatele obţinute pentru valorile
particulare menţionate.

⎧0 ,x ≤0
⎪⎪ 1
x n y
−1 − 2
F( x ) = ⎨ n ∫ y 2
e 2σ
dy , x > 0
⎪ 2 2 σ n Γ ⎛⎜ n ⎞⎟ 0
⎪⎩ ⎝ 2⎠

Datorită multiplelor aplicaţii ale repartiţiei χ 2


(n) , valorile funcţiei de repartiţie se
găsesc tabelate pentru σ = 1.

ϕ ( t ) = (1 − 2iσ 2 t ) − n / 2 ;
⎛n ⎞⎛ n ⎞ ⎛n ⎞ n
M k ( X ) = 2 k σ 2k ⎜ + k − 1⎟ ⎜ + k − 2⎟ ... ⎜ + 1⎟
⎝2 ⎠⎝ 2 ⎠ ⎝2 ⎠ 2

M1(X) = σ2n; M2(X) = n(n+2)σ4; M3(X) = n(n+2)(n+4)σ6; M4(X) = n(n+2)(n+4)(n+6)σ8

µ1(X) = 0; µ2(X) = 2nσ4; µ3(X) = 23nσ6; µ4(X) = 12n(n+4)σ8;

2 2 12
γ1 = ; γ2 = .
n n

Rezultatul care urmează stabileşte legătura între repartiţia normală şi repartiţia χ 2


(n) ,
rezultat de o importanţă deosebită în aplicaţii.

82
Teoremă. Dacă X1,X2,…,Xn sunt variabile aleatoare independente, identic repartizate, având
n
repartiţia N(0,σ), atunci Y = ∑ X 2j are o repartiţie χ 2
(n) cu parametrul σ.
j= 1

Demonstraţie: Să determinăm mai întâi densitatea de repartiţie a variabilei X 2j :

⎧ 0 ,x ≤0
FX 2 ( x ) = P( X 2j < x ) = ⎨ ;
j
⎩ P( − x < X j < x ) , x > 0

⎧ 0 ,x ≤0
FX 2 ( x ) = ⎨
F ( x ) − FX j ( − x ) , x > 0
⎩ Xj
j

Rezultă că:

⎧0 ,x ≤ 0
⎪ x2 x2
f X2 (x) = ⎨ 1 − 2 1 1 1 − 2 ;
j
⎪⎩σ 2π e
2 σ
+ e σ
2
,x > 0
2 x 2 x σ 2π
⎧0 ,x ≤ 0
⎪⎪ 1 −
1 x2
− 2
f X2 (x) = ⎨ 1 x 2 e 2σ , x > 0
⎪ 2 2 σ Γ ⎛⎜ 1 ⎞⎟
j

⎪⎩ ⎝ 2⎠

Aceasta este tocmai densitatea de repartiţie a unei variabile χ (n)


2
cu un grad de
libertate.
Urmează că:

1

ϕ X ( t ) = (1 − 2iσ 2 t )
2
2
j

n n

ϕ Y (t ) = ϕ n (t ) = ∏ ϕ ( t ) = (1 − 2iσ t )2 2
∑ X 2j j =1
j =1 X 2j

n

Cum ϕ Y ( t ) = (1 − 2iσ 2 t ) 2
este funcţia caracteristică a unei variabile χ (n)
2
(cu n grade de
libertate şi parametru σ) rezultă că densitatea de repartiţie a variabilei Y este:

⎧0 ,x ≤ 0
⎪⎪ 1 n x
−1 − 2
f Y (x) = ⎨ n x 2
e 2σ
,x > 0
⎪ 2 2 σ n Γ ⎛⎜ n ⎞⎟
⎪⎩ ⎝ 2⎠

n
deci, Y = ∑ X 2j este o variabilă X (n)
2
cu parametru σ.
j =1

Dacă X1,X2,…,Xn sunt variabile aleatoare independente identic repartizate N(0, σ)


vom determina densităţile de repartiţie ale variabilelor:
83
1 n 2 n
1 n 2
Y1 = ∑X ;
n j =1 j
Y2 = ∑ X 2j ; Y3 =
j=1
∑X .
n j=1 j
⎛1 n ⎞ ⎧ 0 ,x ≤ 0
FY1 ( x ) = P(Y 1 < x ) = P⎜ ∑ X 2j < x⎟ = ⎨
⎝ n j =1 ⎠ ⎩ FY ( nx ) , x > 0

⎧0 ,x ≤ 0
⎪ n
⎧ 0 ,x ≤ 0 ⎪ n nx
f Y1 ( x ) = ⎨ n n
2 −1 − 2
Rezultă acum: f Y1 ( x ) = ⎨ ; x e
2 2σ
,x > 0
⎩nfY ( nx ) , x > 0 ⎪ 2 n ⎛ n⎞
⎪⎩ 2 σ Γ ⎜⎝ 2 ⎟⎠

⎛ n ⎞ ⎧ 0 ,x ≤ 0
FY2 ( x ) = P(Y 2 < x ) = P⎜⎜

∑X j =1
2
j < x ⎟⎟ = ⎨
⎠ ⎩ FY ( x ) , x > 0
2

⎧0 ,x ≤0
⎪⎪ 2
x2
− 2
n −1
f Y2 ( x ) = ⎨ n x e 2σ ,x >0
⎛ n
⎪ 2 2 σ n Γ⎜ ⎟ ⎞
⎪⎩ ⎝ 2⎠

⎛ 1 n 2 ⎞ ⎧ 0 ,x ≤ 0
FY3 ( x ) = P(Y 3 < x ) = P⎜⎜ ∑
⎝ n j =1
X j < x ⎟⎟ = ⎨
⎠ ⎩ FY ( nx ) , x > 0
2

⎧0 ,x ≤0
⎪ n
⎪ 2n 2
nx
− 2
f Y3 ( x ) = ⎨ n n −1
x e 2σ
,x >0
⎪ 2 n ⎛ n⎞
⎪ 2 σ Γ ⎜⎝ 2 ⎟⎠

3.5. Repartiţia Student

Spunem că variabila aleatoare X are o repartiţie Student cu n grade de libertate, dacă


densitatea de repartiţie are expresia:

⎛ n + 1⎞ n +1
Γ⎜ ⎟ 2 − 2
⎝ 2 ⎠ ⎛ x ⎞
f (x) = ⎜1 + ⎟ , x ∈ ( −∞, ∞ )
⎛ n⎞ ⎝ n⎠
nπ Γ ⎜ ⎟
⎝ 2⎠

Să arătăm că f este o densitate de repartiţie: pentru f(x) ≥ 0, x ∈ (-∞,∞)

84
⎛ n + 1⎞ n +1 ⎛ n + 1⎞ n +1
∞ Γ⎜ ⎟ 2 − 2 Γ⎜ ⎟ ∞ −
⎝ 2 ⎠ ⎛ x ⎞ ⎝ 2 ⎠ ⎛ x2 ⎞ 2

∫ ⎜1 + ⎟
⎛ n⎞ ⎝ n⎠
dx = 2
⎛ n⎞ ∫ ⎜⎝1 + n ⎟⎠ dx =
−∞
nπ Γ ⎜ ⎟ nπ Γ ⎜ ⎟ −∞
⎝ 2⎠ ⎝ 2⎠
⎛ n + 1⎞ ⎛ n + 1⎞ ⎛ n + 1⎞ ⎛ 1 ⎞ ⎛ n ⎞
2Γ ⎜ ⎟
1
∞ Γ⎜ ⎟ Γ⎜ ⎟ Γ⎜ ⎟ Γ⎜ ⎟
⎝ 2 ⎠ n2 −
1

n +1
⎝ 2 ⎠ ⎛ 1 n⎞ ⎝ 2 ⎠ ⎝ 2⎠ ⎝ 2 ⎠
=
⎛ n⎞ 2 ∫y 2
(1 + y ) 2
dy = Β⎜ , ⎟ =
⎛ n⎞ ⎝ 2 2⎠ ⎛ 1⎞ ⎛ n + 1⎞
=1
nπ Γ ⎜ ⎟ −∞
π Γ⎜ ⎟ π Γ⎜ ⎟ Γ⎜ ⎟
⎝ 2⎠ ⎝ 2⎠ ⎝ 2⎠ ⎝ 2 ⎠

⎛ n + 1⎞ n +1
Γ⎜ ⎟ −
⎝ 2 ⎠ x ⎛ y2 ⎞ 2
Funcţia de repartiţie F ( x ) = ∫ ⎜⎝1 + n ⎟⎠ dy este tabelată, dată fiind utilizarea
⎛ n ⎞ −∞
nπ Γ ⎜ ⎟
⎝ 2⎠
ei în construirea intervalelor de încredere şi verificarea ipotezelor statistice.
Să determinăm momentele de diferite ordine; întrucât funcţia densitate de repartiţie
este pară, media variabilei Student este nulă şi drept urmare momentele obişnuite coincid cu
cele centrate:

⎛ n + 1⎞
Γ⎜ ⎟ −
n +1
⎝ 2 ⎠ ∞ 2 r +1 ⎛ x2 ⎞ 2
µ2 r +1 ( X ) = ∫ x ⎜⎝1 + n ⎟⎠ dx = 0
⎛ n ⎞ −∞
nπ Γ ⎜ ⎟
⎝ 2⎠
(funcţia de integrat este impară cu limitele de integrare simetrice).

⎛ n + 1⎞ ⎛ n + 1⎞
Γ⎜ ⎟ ∞ −
n +1
2Γ ⎜ ⎟ ∞ −
n +1
⎝ 2 ⎠ 2r ⎛ x ⎞ 2 2 ⎝ 2 ⎠ 2r ⎛ x2 ⎞ 2
µ2r ( X ) =
⎛ n⎞ ∫−∞ x ⎜⎝1 + n ⎟⎠ dx =
⎛ n⎞ ∫ ⎝ n ⎟⎠
x ⎜ 1 + dx
nπ Γ ⎜ ⎟ nπ Γ ⎜ ⎟ −∞
⎝ 2⎠ ⎝ 2⎠

x2
Cu substituţia = y se obţine
n

⎛ n + 1⎞ r ⎛ n + 1⎞ r
2Γ ⎜ ⎟n ∞
1 Γ⎜ ⎟n ∞
⎝ 2 ⎠ 1 n +1
n ⎝ 2 ⎠ 1 n +1
(1 + y ) (1 + y ) − 2
r− − 2 r−
µ2r ( X ) =
⎛ n⎞ ∫ y 2 2
2
dy =
⎛ n⎞ ∫ y 2
dy =
nπ Γ ⎜ ⎟ 0
π Γ⎜ ⎟ 0
⎝ 2⎠ ⎝ 2⎠
⎛ n + 1⎞ ⎛ n + 1⎞ ⎛ 1⎞ ⎛ n ⎞
n r Γ⎜ ⎟ n r Γ⎜ ⎟ Γ⎜ r + ⎟ Γ ⎜ − r⎟
⎝ 2 ⎠ ⎛ 1 n ⎞ ⎝ 2 ⎠ ⎝ 2⎠ ⎝ 2 ⎠
= Β⎜ r + , − r ⎟ =
⎛ n⎞ ⎝ 2 2 ⎠ ⎛ n⎞ ⎛ n + 1⎞
π Γ⎜ ⎟ π Γ⎜ ⎟ Γ⎜ ⎟
⎝ 2⎠ ⎝ 2⎠ ⎝ 2 ⎠

⎛ n⎞ ⎛ n ⎞ ⎛ n ⎞ ⎛n ⎞ ⎛n ⎞ ⎛ 1⎞ ⎛ 1⎞ ⎛ 3⎞ 1 ⎛ 1 ⎞
Cum Γ ⎜ ⎟ = ⎜ − 1⎟ ⎜ − 2⎟ ... ⎜ − r ⎟ Γ ⎜ − r ⎟ ; Γ⎜ r + ⎟ = ⎜r − ⎟⎜r − ⎟ ... Γ ⎜ ⎟ ,
⎝ 2⎠ ⎝ 2 ⎠ ⎝ 2 ⎠ ⎝2 ⎠ ⎝2 ⎠ ⎝ 2⎠ ⎝ 2⎠ ⎝ 2⎠ 2 ⎝ 2⎠

se obţine, în final:
85
n r ⋅ 1 ⋅ 3...( 2r − 1)
µ 2r ( X ) =
( n − 2)( n − 4)...( n − 2r)
n
şi expresia are loc numai dacă r < . De aici rezultă, prin particularizarea lui r:
2
n
µ2 ( X ) =
n−2
3n 2
µ4 ( X ) =
( n − 2 )( n − 4)
15n 3
µ6 ( X ) =
( n − 2 )( n − 4 )( n − 6)
...

γ 1 = 0 (repartiţie simetrică)
3n 2
( n − 2)( n − 4) 6
γ2 = − 3=
n 2
n−4
( n − 2) 2

Rezultatul care urmează stabileşte legătura între repartiţia normală, repartiţia χ 2


(n) şi
repartiţia Student.

Teoremă. Fie variabilele aleatoare independente X∈N(0,σ) şi X1,X2,…,Xn∈N(0,σ). Atunci,


X
variabila aleatoare T = are o repartiţie Student cu n grade de libertate.
1 n 2
∑X
n j =1 j
1 n 2 X
Demonstraţie. Dacă notăm cu Y = ∑
n j =1
X j , atunci T =
Y
şi densitatea de repartiţie a
n
x2 ny 2
1 − 2n 2 n −1

vectorului aleator (X,Y) este f ( x, y ) =
2
2σ 2σ 2
e y e .
σ 2π n
⎛ n⎞
2 σ Γ⎜ ⎟
2 n
⎝ 2⎠
Urmează că:
n
x2 ny 2
1 2n 2 − −
∫∫ f ( x, y )dx dy = σ ∫∫ e
n −1
FT ( t ) = P(T < t ) = 2σ 2
y e 2σ 2
dx dy =

n
⎛ n⎞
2 σ Γ⎜ ⎟
x 2 n x
{( x , y ): < t , y > 0} {( x , y ): < t , y > 0}
y ⎝ 2⎠ y

n
∞ yt x2 ny 2
2n 2 − −
∫ ∫e
n −1
=
2
2σ 2σ 2
n
y e dx dy
⎛ n⎞
2π 2 σ 2 n +1
Γ⎜ ⎟ 0 −∞
⎝ 2⎠

n
∞ y2
2n 2 − (t 2 +n)
f T (t ) = ∫
n 2σ 2
n
y e dy
⎛ n⎞
2π 2 σ 2 n +1
Γ⎜ ⎟ 0
⎝ 2⎠

86
1
2σ z 2
Dacă efectuăm schimbarea de variabilă y = 1
, obţinem:
2
(t + n) 2

⎛ n + 1⎞
n
n
∞ n Γ⎜
2

n 2 n −1
⎝ 2 ⎠
f T (t) =
⎛ n⎞
n +1 ∫ z 2
e − z dz =
⎛ n⎞
n +1
t 2 n2+1
π Γ⎜ ⎟ ( t 2 + n) 2 0
π Γ⎜ ⎟ n 2
(1 + )
⎝ 2⎠ ⎝ 2⎠ n

⎛ n + 1⎞
Γ⎜ ⎟
⎝ 2 ⎠ t 2 − n2+1
Deci, f T ( t ) = (1 + ) , care este tocmai densitatea de repartiţie a unei variabile
⎛ n⎞ n
nπ Γ ⎜ ⎟
⎝ 2⎠
Student cu n grade de libertate.

3.6. Repartiţia Snedecor şi repartiţia Fischer

Spunem că o variabilă aleatoare are repartiţie Snedecor dacă densitatea sa de repartiţie


are expresia
⎧0 , x≤0
⎪ ⎛ n1 + n2 ⎞ n1 + n2
⎪ n1 n21 Γ ⎜⎝ ⎟ n1
⎠ −

f (x) = ⎨ ⎞ 2 −1 ⎛ n1 ⎞ 2
⎜ ⎟ x 2 ⎜1 + x ⎟ , x>0 ;
⎪⎝ n 2 ⎠ ⎛ n1 ⎞ ⎛ n 2 ⎞ ⎝ n2 ⎠
⎪ Γ⎜ ⎟ Γ⎜ ⎟
⎩ ⎝ 2⎠ ⎝ 2⎠
n1 şi n2 sunt numere naturale date, numite grade de libertate.

Constatăm că f(x) ≥0, x∈R. Să verificăm că


−∞
∫ f ( x ) dx = 1 .
Într-adevăr,
⎛ n1 + n 2 ⎞ n1 + n2
n1
Γ⎜ ⎟ ∞ −
⎛ n1 ⎞ 2 ⎝ 2 ⎠ n1
−1 ⎛ n1 ⎞ 2
⎜ ⎟
⎝ n2 ⎠ ⎛ n1 ⎞ ⎛ n 2 ⎞ ∫ x 2
⎜1 + x ⎟
⎝ n2 ⎠
dx =
Γ⎜ ⎟ Γ⎜ ⎟ 0
⎝ 2⎠ ⎝ 2⎠
⎛ n1 + n 2 ⎞
n1
Γ⎜ ⎟ n1
−1 n1 + n2
⎛ n1 ⎞ ⎝ 2 ⎠ ∞ ⎛ n2 ⎞ 2 n1
n2
( )
2 −1 −
=⎜ ⎟
⎝ n2 ⎠ ∫ ⎜ ⎟
⎛ n1 ⎞ ⎛ n 2 ⎞ 0 ⎝ n1 ⎠
⋅ y 2
1 + y 2
n1
dy =
Γ⎜ ⎟ Γ⎜ ⎟
⎝ 2⎠ ⎝ 2⎠
⎛ n1 + n 2 ⎞
n1
Γ⎜ n1

⎛ n1 ⎞ ⎛ n 2 ⎞
2 ⎝ 2 ⎠ ⎛ n1 n 2 ⎞
2
=⎜ ⎟ ⎜ ⎟ Β⎜ , ⎟ = 1
⎝ n 2 ⎠ ⎝ n1 ⎠ ⎛ n1 ⎞ ⎛ n 2 ⎞ ⎝ 2 2 ⎠
Γ⎜ ⎟ Γ⎜ ⎟
⎝ 2⎠ ⎝ 2⎠
n1 n2
(am făcut schimbarea de variabilă x = y, x = y ).
n2 n1

87
Momentele obişnuite:

⎛ n1 + n 2 ⎞ n 1 + n2 ⎛ n1 ⎞ ⎛ n 2 ⎞
n1 Γ⎜ ⎟ ∞ − Γ ⎜ r + ⎟ Γ ⎜ − r⎟
⎛ n1 ⎞ 2 ⎝ 2 ⎠ n1
+ r −1 ⎛ n1 ⎞ 2 ⎛ n2 ⎞ ⎝r
2⎠ ⎝ 2 ⎠
Mr ( X ) = ⎜ ⎟
⎝ n2 ⎠ ⎛ n1 ⎞ ⎛ n 2 ⎞
∫ x 2
⎜1 + x ⎟
⎝ n2 ⎠
dx = ⎜ ⎟
⎝ n1 ⎠ ⎛ n1 ⎞ ⎛ n 2 ⎞
Γ⎜ ⎟ Γ⎜ ⎟ 0
Γ⎜ ⎟ Γ⎜ ⎟
⎝ 2⎠ ⎝ 2⎠ ⎝ 2⎠ ⎝ 2⎠

n2
Momentul de ordinul r există numai dacă r < . Cum
2

⎛ n1⎞ ⎛ n1 ⎞ ⎛ n1 ⎞ n1 ⎛ n1⎞
Γ ⎜ r + ⎟ = ⎜ + r − 1⎟ ⎜ + r − 2⎟ ... Γ ⎜ ⎟
⎝ 2⎠ ⎝ 2 ⎠⎝ 2 ⎠ 2 ⎝ 2⎠
⎛ n2 ⎞ ⎛ n2 ⎞ ⎛ n2 ⎞ ⎛ n2 ⎞ ⎛ n2 ⎞
Γ ⎜ ⎟ = ⎜ − 1⎟ ⎜ − 2⎟ ... ⎜ − r⎟ Γ ⎜ − r⎟
⎝ 2⎠ ⎝ 2 ⎠⎝ 2 ⎠ ⎝2 ⎠ ⎝2 ⎠

r
⎛ n2 ⎞ n1( n1 + 2)...( n1 + 2r − 2)
se obţine în final Mr ( X ) = ⎜ ⎟ . Prin particularizarea lui r,
⎝ n1 ⎠ ( n2 − 2)( n2 − 4)...( n2 − 2r)
se obţine:

n2
M 1( X ) = ,
n2 − 2
n2 2 n1 + 2
M 2( X ) = ,
n1 ( n 2 − 2 )( n 2 − 4 )
n2 3 ( n1 + 2 )( n1 + 4 )
M 3( X ) = 2 ,…
n1 ( n 2 − 2 )( n 2 − 4 )( n 2 − 6)

Să stabilim o legătură între repartiţia χ 2


(n) şi repartiţia Snedecor.

Teoremă. Fie χ 2
( n1 ) şi χ 2
( n2 ) două variabile aleatoare independente repartizate χ 2
(n) cu n1,
respectiv n2 grade de libertate. Atunci, variabila

χ (2n ) / n1 n2 χ (2n1 )
Fn1 ,n2 = 1
=
χ (2n ) / n2
1
n1χ (2n1 )

are o repartiţie Snedecor cu n1, respectiv n2 grade de libertate.

χ (2n ) χ (2n ) X
Demonstraţie. Notăm X = 1
, Y= 2
. Atunci Fn1 ,n2 = , X,Y fiind variabile
n1 n2 Y
independente.

88
X
FFn1 ,n2 ( z ) = P( Fn1 ,n2 < z ) = P(
Y
< z) = ∫∫ f ( x, y )dx dy =
x
{( x , y ): < t , y > 0}
y
n1 n2
n1 n1x n2 n2 y
n1 2 −1 − 2 n2 2 −1 − 2
= ∫∫ n1
⎛n ⎞
x 2 2σ
e n2
⎛n ⎞
y 2
e 2σ
dx dy =
x
{( x , y ): < t , y > 0} 2 σ Γ⎜ 1 ⎟
2 n1
2 σ Γ⎜ 2 ⎟
2 n2
y ⎝ 2⎠ ⎝ 2⎠
n1 n2
∞ yz n1 n2 nx n y
n1 2 n 2 2 1
−1 − 2
2
−1 − 2
= ∫ ∫ n1 + n2 x e
2 2σ
y 2 e 2σ dx dy
⎛n ⎞ ⎛n ⎞
0 −∞
2 2 σ n1 + n2 Γ ⎜ 1 ⎟ Γ ⎜ 2 ⎟
⎝ 2⎠ ⎝ 2⎠

n1 n2
∞ n1 n1 yz n2 n2 y
n1 n 22 2 −1 − −1 − 2
f Fn1 ,n2 ( z ) = n1 + n2
⎛n ⎞ ⎛n ⎞
∫ y( yz ) 2
e 2σ 2
y 2
e 2σ
dy =
2 2
σ n1 + n2
Γ⎜ 1 ⎟ Γ⎜ 2 ⎟ 0
⎝ 2⎠ ⎝ 2⎠
n1 n2 n1 + n2
∞ −1 y
n1 2 n 2 2 2 − 2 ( n1z + n2 )
= n1 + n2
⎛n ⎞ ⎛n ⎞
∫y 2σ
e dy
2 2 σ n1 + n2 Γ ⎜ 1 ⎟ Γ ⎜ 2 ⎟ 0
⎝ 2⎠ ⎝ 2⎠

y 2σ 2 t
Dacă facem schimbarea de variabilă ( n1z + n2) = t; y = , atunci,
2σ 2 n1z + n2

n1 n2 n1 n1 + n2 n1 + n2
−1 −1 ∞ −1
n1 2 n 2 2 z 2 2 2 σ n1 + n2 − 2 2 2σ 2 dt
f Fn1 , n2 ( z ) = n1 + n2
⎛ n ⎞ ⎛ n ⎞
n1 + n2
−1
∫0 t e −t
n1z + n 2
2 2 σ 1 2 Γ ⎜ ⎟ Γ ⎜ ⎟ ( n1 z + n 2 ) 2
n + n 1 2
⎝ 2⎠ ⎝ 2⎠

Deci,
n1 n2 n1 n1 + n2
−1 −1
n1 2 n 2 2 z 2 2 2 σ n1 + n2 ⎛ n + n2 ⎞
f Fn1 ,n2 ( z ) = n1 + n2 Γ⎜ 1 ⎟=
⎛ n ⎞ ⎛ n ⎞
n1 + n2
⎝ 2 ⎠
2 2 σ 1 2 Γ ⎜ ⎟ Γ ⎜ ⎟ ( n1 z + n 2 ) 2
n + n 1 2
⎝ 2⎠ ⎝ 2⎠
n1
⎛ n1 ⎞ 2 ⎛ n1 + n2 ⎞
⎜ ⎟ Γ⎜ ⎟ n +n
− 1 2
⎝ 2⎠ ⎝ 2 ⎠ n21 −1 ⎛ n1 ⎞ 2
= z ⎜1 + z ⎟ , z>0 ,
⎛ n1 ⎞ ⎛ n2 ⎞ ⎝ n2 ⎠
Γ⎜ ⎟ Γ⎜ ⎟
⎝ 2⎠ ⎝ 2⎠

care este tocmai densitatea de repartiţie a unei variabile Snedecor cu n1 ,n2 grade de libertate,
respectiv.

Să punem în evidenţă o altă repartiţie care derivă din repartiţia Snedecor şi care are o
importanţă în verificarea ipotezelor statistice.

89
Fie X o variabilă aleatoare repartizată Snedecor cu grade de libertate n1 ,n2 respectiv.
1
Atunci, variabila Z = ln X are densitatea de repartiţie:
2

⎛ n + n2 ⎞
n1 Γ⎜ 1 ⎟ n +n
− 1 2
⎛ n1 ⎞ 2 ⎝ 2 ⎠ n1z ⎛ n1 2 z ⎞ 2
h( z ) = 2⎜ ⎟ e ⎜1 + e ⎟
⎝ n2 ⎠ ⎛ n1 ⎞ ⎛ n2 ⎞ ⎝ n2 ⎠
Γ⎜ ⎟ Γ⎜ ⎟
⎝ 2⎠ ⎝ 2⎠

Într-adevăr,
1
H Z ( z ) = P( Z < z ) = P( ln X < z ) = P( X < e 2z ) = FX ( e 2z )
2
n1 Γ
⎛ n1 + n 2 ⎞
⎜ ⎟ n +n
− 1 2
⎛ ⎞
n1 2 ⎝ 2 ⎠ ⎛ n1 ⎞ 2
h( z ) = f X ( e 2z )2e 2z = ⎜ ⎟ 2e n1z ⎜1 + e 2z ⎟
⎝ n2 ⎠ ⎛ n1⎞ ⎛ n 2 ⎞ ⎝ n2 ⎠
Γ⎜ ⎟ Γ⎜ ⎟
⎝ 2⎠ ⎝ 2 ⎠

Repartiţia dată de această densitate de probabilitate este cunoscută sub numele de


repartiţia Z a lui R.A.Fischer.

Repartiţia Beta

Prin definiţie, spunem că variabila aleatoare X are o repartiţie Beta de parametri a şi b


dacă densitatea ei de repartiţie are expresia:

⎧ 1
⎪ x a −1 (1 − x ) b−1 , x ∈ ( 0,1)
f ( x; a, b) = ⎨ Β( a, b) , a,b > 0.
⎪⎩0 , x ∉ ( 0,1)

Se verifică imediat că f(x;a,b) ≥ 0 şi că ∫ f ( x; a, b) dx = 1 ,


−∞
întrucât
1

∫x
0
a −1
(1 − x ) b−1 dx = Β(a, b) .

⎧0 ,x ≤0
⎪⎪ 1 x
Funcţia de repartiţie: F ( x ) = ⎨
Β ( a , b ) ∫0 y a −1 (1 − y ) b−1 dy ,0 < x ≤ 1

⎪⎩1 , x >1

Momentele obişnuite:

1
1 Β(r + a, b) a ( a + 1)...( a + r − 1)
Mr ( X ) = ∫
Β(a, b) 0
x r + a −1 (1 − x ) b −1 dx =
Β(a, b)
=
( a + b)( a + b + 1)...( a + b + r − 1)

90
Particularizând valorile lui r, obţinem:

a a( a + 1) a( a + 1)( a + 2)
M 1( X ) = ; M 2( X ) = ; M 3( X ) = ;
a+b ( a + b)( a + b + 1) ( a + b)( a + b + 1)( a + b + 2)
a( a + 1)( a + 2)( a + 3) ab
M 4( X ) = ;...; µ1 ( X ) = 0; µ 2 (X) = ;...
( a + b)( a + b + 1)( a + b + 2)( a + b + 3) ( a + b) ( a + b + 1)
2

Repartiţia Beta se utilizează în aplicaţii din teoria deciziei, analiza de drum critic cu
durate aleatoare etc. În aplicaţii privind analiza drumului critic apar variabile aleatoare de
forma:
Y = (b - A) X + A (B > A),

unde X este o variabilă aleatoare B(a,b).


Să punem în evidenţă densitatea de repartiţie a variabilei Y:

⎛ Y − A x − A⎞ ⎛ x − A⎞ ⎛ x − A⎞
FY ( x ) = P(Y < x ) = P⎜ < ⎟ = P⎜ X < ⎟ = FX ⎜ ⎟
⎝ B − A B − A⎠ ⎝ B − A⎠ ⎝ B − A⎠

⎧ 1 ⎛ x − A ⎞ a −1 ⎛ x − A⎞
b −1
1
⎛ x − A⎞ 1 ⎪ ⎜ ⎟ ⎜ 1 − ⎟ , x ∈ ( A, B)
f Y (x) = f X ⎜ ⎟ = ⎨ B( a, b) ⎝ B − A⎠ ⎝ B − A⎠ B − A
⎝ B − A⎠ B− A ⎪
⎩0 , x ∉ ( A, B)
sau

⎧ 1
⎪ ( x − A) a −1 ( B − x ) b −1 , x ∈ ( A, B )
f Y ( x ) = ⎨ B( a, b)( B − A) a + b −1
⎪⎩0 , x ∉( A, B )

Calculul momentelor (îndeosebi media şi dispersia) nu este o problemă complicată


nici în acest caz, rămânând ca exerciţiu pe care-l propunem.

3.7. Repartiţia Weibull

Spunem că variabila aleatoare X are o repartiţie Weibull de parametri a,b,c dacă


densitatea de repartiţie are expresia

⎧ a ⎛ x − b ⎞ a −1 −⎛⎜ x − b ⎞⎟
a

⎪ ⎝ c ⎠
, x ∈( b, ∞ )
f ( x; a, b, c ) = ⎨ c ⎜⎝ c ⎟⎠ e
⎪0 , x ∉( b, ∞ )

Sub această formă, ne aflăm în cazul triparametric, care constituie varianta completă.
Dacă b = 0, obţinem modelul biparametric, când:

⎪⎧adx a −1 e − dx
a
,x >0
f ( x; a , c ) = ⎨
⎩⎪0 ,x ≤0

91
Dacă b = 0, c = 1, atunci obţinem modelul

⎧⎪ax a −1 e − x
a
,x >0
f ( x, a ) = ⎨
⎪⎩0 ,x ≤0

care conţine drept caz particular modelul exponenţial, când a = 1.


În cazul biparametric, obţinem:

⎛1 ⎞ ⎡ ⎛ 2 ⎞ ⎛ ⎛ 1 ⎞⎞ 2 ⎤
M ( X ) = cΓ (⎜ + 1⎟ ; D (X) = c ⎢Γ ⎜ + 1⎟ − ⎜ Γ ⎜ + 1⎟ ⎟ ⎥
2 2
⎝a ⎠ ⎝ ⎠ ⎝ ⎝ a ⎠⎠ ⎥
⎣⎢ a ⎦

Repartiţia Weibull intervine în studiul fiabilităţii elementelor.

3.8. Repartiţia normală n-dimensională

Definiţie. Vectorul aleator (X1,X2,…,Xn) urmează o lege normală n-dimensională dacă


densitatea de repartiţie a acestui vector are expresia
n
− ∑ a ij x i x j
f ( x1, x 2,..., xn ) = ke i , j =1
= ke − X ' AX ,

n
unde ∑a
i , j =1
ij x i x j ≥ 0 este o formă pătratică pozitiv definită, iar k este o constantă pozitivă pe

care o determinăm astfel încât:


(1) f ( x1, x 2,..., xn ) ≥ 0
( 2) k ∫ ... ∫ e − X ' AX dx1... dxn = 1
Rn

Fie transformarea ortogonală X = HY care reduce forma pătratică pozitiv definită


X’AX la o sumă de pătrate:

n
X ' AX = ( HY )' AHY = Y ' H ' AHY = ∑ λ i y i2 ,
i =1

unde λi sunt valorile proprii ale matricei A : | A - λE | = 0 .


Întrucât X’AX este pozitiv definită, rezultă că λi, i=1,2,…,n sunt reale şi pozitive.
Pe de altă parte, transformarea liniară X = HY fiind ortogonală, determinantul
funcţional are valoarea 1 şi, prin urmare, are loc egalitatea:
n
− ∑ λ i y i2 n
k ∫ ... ∫ e − X ' AX dx1... dxn =k ∫ ... ∫ e dy1... dyn =k ∏ e − λ i y i dy i = 1
2
i =1

Rn Rn i =1

92
Dar
⎛ 1⎞
∞ ∞ ∞
1 Γ⎜ ⎟
1
z −
2 ⎝ 2⎠ π −
1 1

∫ e i i dy i = 2∫ e i i dy i = 2∫ (λ i )
2 2
−λ y −λ y 2
e − z dz = = , cu λ i y i2 = z , y i = ( λ i ) 2 z 2
2 1
λi
−∞ 0 0
λ 2

1 (λ λ ... λ )
1 2 n
2
Atunci, k= n ∞
= n
. Însă | A - λE | = 0 ⇒ (-1)nλn +…+|A| = 0 şi,
∏ ∫e λ
i =1 −∞
− i y i2
dy i π 2

( −1) n | A| | A|
deci, λ1λ2 ... λn = =| A| , de unde urmează: f ( x1 , x 2 ,..., x n ) = n e − X ' AX .
( −1) n
π2

Pentru a păstra analogia cu densitatea de repartiţie a unei legi normale N(m,σ), vom
considera densitatea de repartiţie a vectorului aleator (X1,X2,…,Xn)

1
| A| − ( X ' − m') A( X − m)
f ( x1 , x 2 ,..., x n ) = n
e 2
,
(2π ) 2

⎛ m1 ⎞ ⎛ a11
⎜ ⎟ a12 ... a1n ⎞
m ⎜ a21 a22 ... a2n⎟
⎜ 2⎟
cu forma pătratică (X-m’)A(X-m) pozitiv definită şi m = ⎜ ⎟ , A = ⎜ ⎟.
... ⎜⎜ ... ... . . . ⎟⎟
⎜ ⎟ ⎝ an1 a2n ... ann⎠
⎝ mn ⎠

Funcţia caracteristică şi momentele unei legi normale n-dimensionale: din definiţie,


rezultă că ϕ(t1,t2,…,tn) = M(eit’X), t’= (t1,t2,…,tn). Deci,

1
| A| it ' X − X ' AX
ϕ (t) = n ∫ ... ∫ e 2
dx1... dxn
(2π ) 2 Rn

Să aplicăm din nou transformarea ortogonală X = HY; atunci,

t’X = (Hu)’HY = u’H’HY = u’H-1HY = u’Y ,

n
determinantul funcţional este 1, iar X’AX = Y’H’AHY = ∑λ y
i =1
i
2
i . Deci,

93
n n
1
| A| 1
iu'Y − Y ' H −1 AH | A| i ∑ u j y j − 2 ∑ λ j y 2j
ϕ (t) = n ∫ ... ∫ e 2
dy1... dyn = n ∫ ... ∫ e j =1 j =1
dy1... dyn =
(2π ) (2π )
n n
2 R 2 R

2
u2j 1 ⎛ iu j 2 ⎞⎟
∞ 1 ∞ −− λ j ⎜ y j −
| A| n
iu j y j − λ j y 2j | A| n − 2 ⎝⎜ λ j ⎟⎠
= n ∏ ∫e
j =1 −∞
2
dyj = n ∏e
j =1
2λ j
∫e j
dyj =
(2π ) 2
(2π ) 2 −∞

n
u2j n n
u2j
1 1
| A| − ∑ n
1
∞ z 2j
| A| (2π ) 2∑ −


2 j =1 λ j − 2 j =1 λ j
= n e
j =1 λj ∫e 2
dzj = n
λ1λ2 ... λn
e
(2π ) 2 −∞
(2π ) 2

2
1 n uj
− ∑
2 j =1 λ j
Prin urmare, ϕ ( t ) = e , u fiind funcţie de t.
n
Transformarea X = HY ne-a condus la ∑λ y
j =1
j
2
j = Y’H’AHY = Y’BY, unde

⎛ λ1 0 ... 0⎞
⎜ ⎟
0 λ2 ... 0 ⎟
B = H ' AH = ⎜⎜ .
... ... ... ... ⎟
⎜ ⎟
⎝0 0 ... λn ⎠
⎛1 ⎞
⎜ 0 ... 0⎟
⎜ λ1 ⎟
⎜0 1
... 0 ⎟
n n u2
Cum ∑ λ j u 2j = u’Bu, rezultă că ∑
j
= u' B −1u , întrucât B −1 = ⎜ λ2 ⎟.
i =1 λ ji ⎜ ...
j =1
... ... ... ⎟
⎜ 1⎟
⎜0 0 ... ⎟
⎝ λn ⎠
Din relaţiile t = Hu; B = H’AH se obţine:

u = H-1t;
t’ = u’H’ = u’H-1;
u’ = t’H;
B-1 = (H’AH)-1 = H-1A-1H

n u 2j 1
− t ' A−1t
şi, deci, ∑λ
i =1
= t ' HH −1 A −1 HH −1t = t ' A −1t . Deci, ϕ ( t ) = e 2
, unde A-1 este matricea de
j

covarianţă a repartiţiei.

Să obţinem acum funcţia caracteristică a unei repartiţii normale n-dimensionale cu


vectorul valoare medie M(X) = m ≠ 0. Dacă X are o repartiţie normală n-dimensională cu
m≠0, atunci variabila aleatoare vectorială Y = X - m are densitatea de repartiţie

1
| A| − X ' AX
f (X) = n e 2

( 2π ) 2

94
1
− t ' A−1t
pentru care funcţia caracteristică este ϕ ( t ) = e 2
; atunci,

1
ϕ X ( t ) = M ( e itX ) = M ( e it '( m+ Y ) ) = M ( e it ' m e it 'Y ) = e it ' m e
− t ' A −1t
2
şi, deci,

1
− t ' A −1t
ϕ X ( t ) = e it ' m e 2

Calculul momentelor: am văzut că în cazul m = 0, funcţia caracteristică este


n n
1
1
− t ' A −1t

2 ∑∑ a −jk1t j t k
ϕ (t ) = e 2
=e j =1 k =1
,

-1
unde a −1
jk sunt elementele matricei A . Din expresia funcţiei caracteristice se obţine:

⎛ − 1 ∑ ∑ a −jk1t j tk n ⎞
n n

1 ⎛ ∂ ϕ ( t1,..., tn ) ⎞ ⎜ 2 j =1 k =1 −1 ⎟
M( X j ) = ⎜ ⎟ = ⎜ ie ∑ a jk t k ⎟ = 0
i⎝ ∂ tj ⎠ t =0 k =1
⎝ ⎠ t =0
⎡ − 1 ∑ ∑ a −jk1t j tk n − ∑ ∑ a −jk1t j t k ⎤
n n n n
1
1 ⎛ ∂ 2ϕ ( t1,..., tn ) ⎞ ⎢ 2 j =1 k =1 −1
n
−1 −1 2
⎥ = a −1
M( X j Xk ) = 2 ⎜ ⎟ = ie
2
∑ a jk t j ∑ a jk t k + a jk e j =1 k =1
i ⎝ ∂ tj∂ tk ⎠ t = 0 ⎢ j =1 k =1 ⎥ jk

⎣ ⎦ t =0

În cazul în care m≠0, funcţia caracteristică are expresia:


n n n
1
1
it ' m− t ' A −1t
i ∑ t jmj −
2 ∑∑ a −jk1t j t k
ϕ (t ) = e 2
=e j =1 j =1 k =1

De aici urmează:

1⎛ ∂ ϕ ⎞ ⎡⎛ n ⎞ ⎤
⎟ = ⎢⎜ mj + i∑ a jk t j ⎟ ϕ ( t ) ⎥ = mj; 1 ≤ j ≤ n
−1
M( X j ) = ⎜
i ⎝ ∂ tj ⎠ t = 0 ⎢⎣⎝ j =1 ⎠ ⎥⎦ t = 0
1 ⎛ ∂ 2ϕ ⎞ ⎡⎛ n ⎞⎛ n
⎞ ⎤
M( X j Xk ) = 2 ⎜ ⎟ = ⎢⎜ m j + i ∑ a −jk1t j ⎟ ⎜⎝ mk + i ∑ a −jk1t k ⎟⎠ ϕ ( t ) + a −jk1ϕ ( t )⎥ = mjmk + a −jk1 ;
i ⎝ ∂ tj∂ tk ⎠ t = 0 ⎣⎝ j =1 ⎠ k =1 ⎦ t =0
1 ≤ j, k ≤ n;...

Rezultă, deci, că

M ( Xj − mj ) = 0, 1 ≤ j ≤ n;
M [( Xj − mj ) 2 ] = M ( X 2j ) − m 2j = a −jj1 ;
M [( Xj − mj )( Xk − mk )] = M ( XjXk ) − mjmk = a −jk1 ;
...

ceea ce dovedeşte că A-1 este matricea de corelaţie a repartiţiei considerate.


În cazul în care n = 2, dacă notăm M(X1) =m1, M(X2) = m2,

95
M (( X 1 − m1)2 ) = σ 12 ; M (( X 2 − m2 )2 ) = σ 22 ; M (( X 1 − m1)( X 2 − m2 )) = ρσ1σ 2

şi atunci
⎛ σ12
−1
ρσ1σ 2 ⎞
A =⎜ ⎟
⎝ ρσ1σ 2 σ 22 ⎠

det A−1 = σ 12σ 22 − ρ 2σ 12σ 22 = (1 − ρ 2 )σ 12σ 2


2 ,
deci,
1
det A =
(1 − ρ )σ 12σ
2 2
2

⎛ 1 ρ ⎞
⎜ − ⎟
⎜ (1 − ρ 2 )σ 12 (1 − ρ )σ1σ 2 ⎟
2
A=
⎜− ρ 1 ⎟
⎜ ⎟
⎝ (1 − ρ 2 )σ1σ 2 (1 − ρ 2 )σ 2
2 ⎠

⎛ m1 ⎞
Urmează că densitatea de repartiţie a vectorului aleator (X1,X2), m = ⎜ ⎟ şi A-1 determinat
⎝ m2 ⎠
mai sus, este:

1 ⎧ 1 ⎡ ( x1 − m1 ) 2 2 ρ( x1 − m1 )( x 2 − m2 ) ( x 2 − m2 ) 2 ⎤ ⎫
f ( x1 , x 2 ) = exp ⎨− 2 ⎢ − + ⎥⎬
⎩ 2(1 − ρ ) ⎣ σ1 σ1σ 2 σ 22
2
2π σ1σ 2 1− ρ2 ⎦⎭

Se pot pune în evidenţă densităţile de repartiţie condiţionate:

1 ⎧⎪ 1 ⎡ ⎛ σ1 ⎞ ⎤ ⎫⎪
2

f ( x1 / x 2 ) = exp ⎨− 2 ⎢ x1 − ⎜ m1 + ρ ( x − m2 )⎟⎠ ⎥ ⎬
⎪⎩ 2σ1 (1 − ρ ) ⎣ σ2 2
2
2π σ1 1 − ρ 2 ⎝ ⎦ ⎪⎭

σ1
M ( X 1 / X 2 = x 2 ) = m1 + ρ ( x − m2 )
σ2 2
D 2 ( X1 / X 2 = x 2 ) = σ 12 (1 − ρ 2 )

1 ⎧⎪ 1 ⎡ ⎛ σ2 ⎞ ⎤ ⎫⎪
2

f ( x 2 / x1 ) = exp ⎨− 2 ⎢ x 21 − ⎜ m2 + ρ ( x − m1 )⎟⎠ ⎥ ⎬
⎪⎩ 2σ 2 (1 − ρ ) ⎣ σ1 1
2
2π σ 2 1− ρ2 ⎝ ⎦ ⎪⎭

σ2
M ( X 2 / X1 = x1 ) = m2 + ρ ( x − m1 )
σ1 1
D 2 ( X 2 / X1 = x1 ) = σ 22 (1 − ρ 2 )

96
Capitolul 4

LEGEA NUMERELOR MARI. LEGI LIMITĂ

Legătura între frecvenţa relativă de apariţie a unui eveniment şi probabilitate


constituie baza fundamentală a aplicaţiilor calculului probabilităţilor la experienţa practică.
Bernoulli a formulat această legătură prin legea numerelor mari, potrivit căreia frecvenţa unui
fenomen cu probabilitate constantă p tinde în probabilitate către p. Frecvenţa de apariţie a
unui eveniment este, însă, o variabilă aleatoare şi drept urmare este necesar să se pună în
evidenţă tipuri de convergenţă specifice teoriei probabilităţilor. Unele dintre acestea permit
tratarea riguros matematică a legii numerelor mari, a legii tare a numerelor mari, a legilor
limită şi altele.

4.1. Şiruri de variabile aleatoare. Convergenţă

Să considerăm un câmp de probabilitate {Ω,K,P} complet aditiv şi (Xn)n∈N* un şir de


variabile aleatoare definite pe acest câmp de probabilitate; deci Xn:Ω→R, n∈N*,
X n−1 ( B) ∈ K , ( ∀)B ∈ B .

Definiţie. Spunem că şirul de variabile aleatoare (Xn)n∈N* converge în probabilitate către


variabila aleatoare X dacă, pentru orice ε>0 şi η>0, există un rang N(ε,η) astfel încât:

P(ω: |Xn(ω) - X(ω)| ≥ ε) ≤ η , (1)

de îndată ce n ≥ N(ε,η).
Se vede imediat că în locul condiţiei (1) putem scrie:

P(ω: |Xn(ω) - Xm(ω)| < ε) ≥ 1-η

(se scrie probabilitatea evenimentului complementar). Vom scrie în acest caz: Xn ⎯n⎯
P
→∞
→X .

Definiţie. Spunem că şirul de variabile aleatoare (Xn)n∈N* este un şir Cauchy în probabilitate
dacă, pentru orice ε>0 şi η>0, există un N(ε,η) astfel încât:

P(ω: |Xn(ω) - Xm(ω)| ≥ ε) ≤ η

de îndată de n,m ≥ N(ε,η). Vom scrie (Xn)n≥1 este un şir Cauchy.

Definiţie. Spunem că şirul de variabile aleatoare (Xn)n∈N* converge în repartiţie (sau în sens
Bernoulli) către variabila aleatoare X, dacă:

lim Fn( x ) = F ( x )
n →∞

pentru orice x punct de continuitate al funcţiei F, unde Fn(x) = P(Xn < x), F(x) = P(X < x).
Vom scrie Xn ⎯n⎯→∞
B
→ X .

97
Observaţie. Convergenţa în sens Bernoulli mai este cunoscută şi sub numele de convergenţa
slabă a şirului de variabile aleatoare (Xn)n∈N*.

Definiţie. Şirul de variabile aleatoare (Xn)n∈N* converge tare către variabila aleatoare X
dacă, pentru orice ε>0 şi η>0, există un rang N(ε,η) astfel încât

⎛ ⎞
P⎜ U {ω :| Xn(ω ) − X (ω ) ≥ ε }⎟ ≤ η
⎝ n≥ N ( ε ,η ) ⎠

Prescurtat, vom scrie Xn ⎯tare


⎯⎯→ X .
n →∞
P

Definiţie. Şirul de variabile aleatoare (Xn)n∈N* converge aproape sigur către variabila
aleatoare X dacă P(ω : lim Xn(ω ) există şi este egală cu X(ω)) = 1. Pentru această
n→∞

convergenţă vom adopta scrierea prescurtată Xn ⎯n⎯⎯→ X .


a .S
→∞

Definiţie. Şirul de variabile aleatoare (Xn)n∈N* converge în medie de ordinul r către variabila
aleatoare X (pentru care Mr(X) există) dacă lim M (| Xn − X | r ) = 0 . În fine, în acest caz, vom
n →∞

scrie Xn ⎯n⎯
⎯→ X .
Mr
→∞

Din definiţia convergenţei tare în probabilitate a unui şir de variabile aleatoare rezultă
imediat că şirul converge în probabilitate. Se arată, totodată, că un şir de variabile aleatoare
(Xn)n∈N* converge tare în probabilitate dacă şi numai dacă converge aproape sigur. Noi o să
arătăm însă că este adevărată următoarea teoremă.

Teoremă. Dacă şirul de variabile aleatoare (Xn)n∈N* converge în probabilitate către variabila
aleatoare X, atunci lim FXn ( a ) = FX ( a ) în orice punct a de continuitate al funcţiei de
n →∞

repartiţie FX.

Demonstraţie. Fie a un punct de continuitate al funcţiei FX şi ε>0, δ>0 astfel încât

FX(a + δ) - FX(a - δ) < ε

Atunci,

FX ( a − δ ) = P(ω : X (ω ) < a − δ ) = P[(ω: X (ω ) < a − δ ) ∩ Ω] =


[ ]
= P (ω : X (ω ) < a − δ ) ∩ {ω: X n (ω ) < a} ∪ {ω : Xn(ω ) ≥ a} ≤ P(ω : Xn(ω ) < a ) +

[ ]
+ P[(ω : X (ω ) < a − δ ) ∩ (ω : Xn(ω ) ≥ a )] = FX n ( a ) + P (ω : X (ω ) < a − δ ) ∩ (ω : Xn(ω ) ≥ a ) ≤
≤ FX n ( a ) + P(ω : Xn(ω ) − X (ω ) ≥ δ )

Deci, F X ( a − δ ) ≤ lim F X n ( a ) şi, în acelaşi mod, FX ( a + δ ) ≤ lim FX n ( a ) .


n →∞ n →∞

Atunci,
lim F X n ( a ) − lim FX n ( a ) ≤ F X ( a + δ ) − F X ( a − δ ) < ε
n →∞ n →∞

98
şi cum ε > 0 este arbitrar, rezultă că lim FXn ( a ) = FX ( a ) .
n →∞

Observaţie. Nu se poate face afirmaţia că lim FXn ( a ) = FX ( a ) oricare ar fi a ∈ R.


n →∞

1
Într-adevăr, dacă luăm Xn(ω ) = − , n ∈ N * ş i X (ω ) = 0 , ω ∈ Ω , atunci, evident
n
P
Xn ⎯⎯→ X . Totodată
⎧ 1
⎪0 , a ≤ − n ⎧0 , a ≤ 0
FX n ( a ) = ⎨ ; FX n ( a ) = ⎨
1 ⎩1 , a > 0
⎪1 , a > −
⎩ n

⎧0 , a < 0
Dar lim F X n ( a ) = ⎨ şi de aici rezultă că lim F X n ( 0) = 1 ≠ Fx( 0 ) = 0 din cauză că
n →∞
⎩1 , a ≥ 0 n →∞

zero nu este punct de continuitate pentru FX.

Teoremă. Dacă P(ω:X(ω) = k) = 1 unde k este o constantă şi dacă lim F X n ( a ) = FX ( a ) în


n →∞

orice punct a de continuitate pentru FX, atunci şirul de variabile aleatoare (Xn)n∈N* converge
în probabilitate către k.

Demonstraţie. În condiţiile teoremei, funcţia FX are expresia

⎧0 , a ≤ k
FX (a ) = ⎨
⎩1 , a > k

şi, deci, singurul punct de discontinuitate al funcţiei de repartiţie FX este punctul a = k. Putem
scrie succesiv:

0 ≤ 1 − P(ω :| Xn(ω ) − k | ≤ ε ) = 1 − P(ω: k − ε ≤ Xn(ω ) ≤ k + ε ) =


= 1 − [ P(ω : Xn(ω ) ≤ k + ε ) − P(ω : Xn(ω ) < k − ε )] =
= FX ( k + ε ) − FX ( k − ε ) − FX n ( k + ε ) + FX n ( k − ε )

De aici rezultă că lim P(ω :| Xn(ω ) − k | ≤ ε ) = 1 , adică Xn ⎯⎯→ k .


P
n →∞

Convergenţa în medie de ordinul r implică convergenţa în probabilitate. Invers nu este


totdeauna adevărat. Pentru aceasta, să considerăm şirul de variabile aleatoare (Xn)n∈N*

⎛−n 0 n ⎞
Xn: ⎜⎜ 1 1
1− 2
1 ⎟ , n∈N*

⎝ 2n 2 n 2n 2 ⎠

1
Atunci, oricare ar fi ε>0 şi η>0, există N(ε,η) astfel încât P(| Xn| > ε ) =
< η îndată ce
n2
n > N(ε,η), ceea ce dovedeşte faptul că şirul (Xn)n∈N* converge în probabilitate către zero.

99
⎛ 1⎞ 1 1
Dacă acum vom calcula M (| Xn − 0| 2 ) = M ( X n2 ) = 0⎜1 − 2 ⎟ + n 2 2 + n 2 2 = 1 şi,
⎝ n ⎠ 2n 2n
deci, (Xn)n∈N* nu converge în medie de ordinul doi.

Aşadar, schema de mai jos indică lanţul de implicaţii între tipurile de convergenţă pe
care le-am introdus mai sus:

a .s tare P
Xn ⎯⎯→ X ⇔ Xn ⎯⎯⎯→ X
n→∞ n→∞


P B
Xn ⎯
⎯→ X ⇒ Xn ⎯
⎯→ X
n →∞ n →∞


M
Xn ⎯⎯→ X
n →∞

4.2. Legea numerelor mari

Experienţa umană dobândită în procesul de producţie a bunurilor materiale sau în


studiul fenomenelor naturale a dovedit că fenomenele ce au o probabilitate de realizare
apropiată de 1 se produc aproape sigur, iar cele cu probabilitatea apropiată de 0 apar destul de
rar. De aceea, evenimentele ce se produc cu probabilităţi foarte mici sunt practic imposibile,
iar cele care se produc cu probabilităţi mari sunt practic certe. Principala problemă care se
ridică este de a stabili cât de mare sau cât de mică să fie o probabilitate pentru ca
evenimentele corespunzătoare să poată fi considerate practic certe, respectiv practic
imposibile. Răspunsul nu este general valabil, ci depinde efectiv de fenomenul studiat,
aceeaşi probabilitate putând să reflecte evenimente practic certe în anumite situaţii, iar altele
nu. Deci, numai situaţiile concrete, practice sunt în măsură să stabilească dacă un eveniment
poate fi considerat ca neglijabil cu o probabilitate dată.
Totodată, dacă avem un eveniment ce se realizează cu o probabilitate foarte mică şi
dacă numărul experienţelor este foarte mare, atunci el se poate realiza cu o probabilitate oricât
de apropiată de 1, cu toate că este greu să ne aşteptăm ca el să apară într-un număr de
experienţe dinainte fixat. Drept urmare, se impune studiul unor legităţi de apariţie a unor
evenimente cu probabilitatea 0 sau 1 într-un număr foarte mare de experienţe.
Tocmai acesta este obiectul legilor numerelor mari. Acest fapt se poate formula în
cadrul unor teoreme de tip lege a numerelor mari într-o formă determinată, ceea ce vom face
în cele ce urmează.
Să considerăm un şir de variabile aleatoare (Xn)n∈N* şi Yn = ϕn(X1,X2,…,Xn), n∈N*
funcţii date, simetrice în primele n variabile ale şirului (Xn)n∈N*.

Definiţie. Dacă există un şir de numere reale (an)n∈N* astfel încât pentru orice ε>0 să avem
lim P(| Yn − an| < ε ) = 1 , atunci spunem că şirul (Xn)n∈N* se supune legii numerelor mari cu
n →∞

funcţiile (ϕn) n∈N*.


Se mai spune că şirul (Xn)n∈N* este stabil cu funcţiile (ϕn) n∈N*. În mod frecvent, în legea
1 n
numerelor mari ne limităm la cazul în care ϕn(X1,X2,…,Xn)= ∑ Xj , când se mai spune că
n j= 1
şirul (Xn)n∈N* este normal stabil.

100
Din definiţia dată rezultă că şirul (Xn)n∈N* se supune legii numerelor mari cu funcţiile
P
(ϕn) n∈N*, dacă există şirul de numere reale (an) n∈N* astfel încât Yn − an ⎯⎯→ 0 .
n→∞
P
Dacă an = a, n∈N*, atunci acest lucru revine la Yn ⎯⎯→ a .
n →∞

Teorema lui Cebîşev. Fie (Xn)n∈N* un şir de variabile aleatoare independente, cu dispersii
finite, uniform mărginite, D2(Xk) ≤ c, (∀) k=1,2,…. Atunci,

⎛1 n 1 n ⎞
lim P⎜ ∑ Xk − ∑ M ( Xk ) < ε ⎟ = 1
n →∞ ⎝ n n k =1 ⎠
k =1

(sau că şirul (Xn)n∈N* se supune legii numerelor mari în varianta Cebîşev).

⎛1 n ⎞ 1 n ⎛1 n ⎞ 1 n
c
Demonstraţie. Întrucât M ⎜ ∑ Xk ⎟ = ∑ M ( Xk ) şi D 2 ⎜ ∑ Xk ⎟ = 2 ∑D 2
( Xk ) ≤
⎝ n k = 1 ⎠ n k =1 ⎝ n k =1 ⎠ n k =1 n

(variabilele şirului sunt independente, iar dispersiile sunt uniform mărginite). Aplicând
inegalitatea lui Cebîşev, obţinem

⎛1 n ⎞
D ⎜ ∑ Xk ⎟
2
⎛1 n 1 n ⎞ ⎝ n k =1 ⎠ c
1 ≥ P⎜ ∑ Xk − ∑ M ( Xk ) < ε ⎟ ≥ 1 − ≥1−
⎝ n k =1 n k =1 ⎠ ε 2
nε 2

⎛1 n 1 n ⎞
Prin trecere la limită se obţine lim P⎜ ∑ Xk − ∑ M ( Xk ) < ε ⎟ = 1 .
n →∞ ⎝ n
k =1 n k =1 ⎠

1 n
Observaţie. Se constată că an = ∑ M ( Xk ) .
n k =1

Teorema lui Markov. Fie (Xn)n∈N* un şir de variabile aleatoare astfel încât

1 2⎛ n ⎞
2 D ⎜ ∑ Xk ⎟ ⎯n⎯⎯→ 0
→∞
n ⎝ k =1 ⎠

⎛1 n 1 n ⎞
Atunci, lim P⎜ ∑ Xk − ∑ M ( Xk ) < ε ⎟ = 1 .
n →∞ ⎝ n
k =1 n k =1 ⎠

Demonstraţie. Se aplică inegalitatea lui Cebîşev

şi, prin trecere la limită, se obţine:


⎛1 n 1 n ⎞
lim P⎜ ∑ Xk − ∑ M ( Xk ) < ε ⎟ = 1
n →∞ ⎝ n
k =1 n k =1 ⎠

101
1 2⎛ n ⎞
Observaţie. Condiţia 2 D ⎜ ∑ Xk ⎟ ⎯n⎯ ⎯→ 0 este cunoscută sub numele de condiţia lui
→∞
n ⎝ k =1 ⎠
Markov.
Dacă variabilele şirului (Xn)n∈N* sunt necorelate două câte două, atunci condiţia lui
Markov devine:
1 n 2
∑ D ( Xk ) ⎯n⎯→∞
n 2 k =1
⎯→ 0

Într-adevăr,

⎛ n ⎞ ⎡⎛ n ⎞ ⎤
2
⎛ n ⎞ ⎛ n 2

D ⎜ ∑ Xk ⎟ = M ⎢⎜ ∑ Xk ⎟ ⎥ − M ⎜ ∑ Xk ⎟ = M ⎜ ∑ Xk + 2 ∑ XkXl ⎟ −
2 2
⎝ k =1 ⎠ ⎣⎝ k =1 ⎠ ⎦ ⎝ k =1 ⎠ ⎝ k =1 k <l ⎠
⎛ n ⎞ n
−⎜ ∑ M 2 ( Xn) + 2 ∑ M ( Xk ) M ( Xl ) ⎟ = ∑ [ M ( X k2 ) − M 2 ( Xk )] + 2 ∑ [ M ( XkXl ) − M ( Xk ) M ( Xl )]
⎝ k =1 k <l ⎠ k =1 k <l

Cum variabilele sunt necorelate două câte două, avem M(XkXl) - M(Xk)M(Xl) = 0 oricare ar fi
k,l∈N*, k≠l.

⎛ n ⎞ n
Deci, D 2 ⎜ ∑ Xk ⎟ = ∑ D 2 ( Xk ) .
⎝ k =1 ⎠ k =1

Teorema lui Hincin. Fie (Xn)n∈N* un şir de variabile aleatoare independente, identic
repartizate şi cu valori medii finite: M(Xk) = a, k=1,2,…. Atunci,

⎛1 n ⎞
lim P⎜ ∑ Xk − a < ε ⎟ = 1
n →∞ ⎝ n
k =1 ⎠

Demonstraţie. Definim şirurile de variabile aleatoare (Yn)n∈N* şi (Zn)n∈N* în modul următor:


fie δ > 0 fixat şi pentru k = 1,2,…,n punem
Yk = Xk, Zk = 0, dacă |Xk|<δn
Yk = 0, Zk = Xk, dacă |Xk|≥δn

Atunci, pentru orice k = 1,2,…,n avem Xk = Yk + Zk.

Să calculăm media şi dispersia variabilei Yk:

δn
M (Yk ) = ∫ xdF ( x ) = a
−δn
n

δn δn δn
D (Yk ) = ∫x dF ( x ) − an ≤ ∫x dF ( x ) ≤ δn ∫ x dF ( x ) ≤ δbn
2 2 2 2

−δn −δn − δn

102
∞ δn
Cu b = ∫ | x| dF ( x ) (care este finit). Cum lim an = lim
−∞
n →∞ n →∞
∫ xdF ( x ) = a
− δn
rezultă că pentru orice

ε>0 există N(ε) cu proprietatea că pentru orice n ≥ N(ε) avem |an - a| < ε. Cum

⎛1 n ⎞ 1 n nan
M ⎜ ∑ Yk ⎟ = ∑ M (Yk ) = = an
⎝ n k = 1 ⎠ n k =1 n
⎛1 n ⎞ 1 n
nδbn
D ⎜ ∑ Yk ⎟ = 2
2
∑D 2
(Yk ) ≤ = δb
⎝ n k =1 ⎠ n k =1 n2

⎛1 n ⎞ δb
aplicăm inegalitatea lui Cebâşev, obţinem P⎜ ∑ Xk − an ≥ ε ⎟ ≤ 2 .
⎝ n k =1 ⎠ ε

1 n 1 n
Pe de altă parte, ∑ Yk − an ≤ ∑ Yk − a +| an − a| .
n k =1 n k =1

1 n 1 n
Dacă ∑
n k =1
Yk − a < ε şi |an - a|<ε atunci ∑ Yk − a < 2ε . Deci,
n k =1

⎧1 n ⎫ ⎧1 n ⎫
⎨ ∑ Yk − a < ε ⎬ ∩ {| an − a| < ε } ⊂ ⎨ ∑ Yk − an < 2ε ⎬
⎩ n k =1 ⎭ ⎩ n k =1 ⎭

care este echivalentă cu

⎧1 n ⎫ ⎧1 n ⎫
⎨ ∑ Yk − a n ≥ 2ε ⎬ ⊂ ⎨ ∑ Yk − a ≥ ε ⎬ ∪ {| an − a| > ε }
⎩ n k =1 ⎭ ⎩ n k =1 ⎭

şi de aici

⎛1 n ⎞ ⎛1 n ⎞ δb
P⎜ ∑ Yk − ak ≥ 2ε ⎟ ≤ P⎜ ∑ Yk − a ≥ ε ⎟ + P(| an − a| > ε ) ≤ 2
⎝ n k =1 ⎠ ⎝ n k =1 ⎠ ε

1 δ
∫δdF ( x) ≤ δn ∫δ| x| dF ( x ) ≤ n .
a .s .
(deoarece an ⎯⎯→ a ), dacă n ≥ N(ε) P( Zn ≠ 0) =
|x |≥ n |x |≥ n

n n
Dar P( ∑ Zk ≠ 0) ≤ ∑ P(Zk ≠ 0) ≤ δ şi, de aici,
k =1 k =1

⎛1 n ⎞ ⎛1 n ⎞ ⎛ n ⎞ bδ
P⎜ ∑ Xk − a ≥ 2ε ⎟ ≤ P⎜ ∑ Yk − a ≥ 2ε ⎟ + P⎜ ∑ Zk ≠ 0⎟ ≤ 2 + δ
⎝ n k =1 ⎠ ⎝ n k =1 ⎠ ⎝ k =1 ⎠ ε


Cum ε şi δ sunt arbitrari, urmează că + δ poate fi făcut oricât de mic.
ε2

103
4.3. Teorema lui Bernoulli. Fie α numărul de apariţii ale evenimentului A în n probe
independente şi p = P(A). Atunci oricare ar fi ε > 0, are loc relaţia

⎛α ⎞
lim P⎜ − p < ε ⎟ = 1
n →∞ ⎝ n ⎠

⎛ 1 0⎞
Demonstraţie. Asociem experimentului de rang j variabilele aleatoare Xj: ⎜ ⎟.
⎝ p q⎠
Deci, variabila aleatoare Xj ia valoarea 1 dacă s-a realizat evenimentul A şi 0 în caz contrar,
j=1,2,…. Am obţinut un şir de variabile aleatoare independente (Xn)n∈N* identic repartizate şi

M(Xn) = p, n∈N*
1
D 2 ( Xn ) = pq ≤ (dispersii uniform mărginite).
4

α 1 n
Cum
n
= ∑ Xj , rezultă că sunt îndeplinite condiţiile teoremei lui Hincin şi, deci,
n j =1
⎛α ⎞
lim P⎜ − p < ε ⎟ = 1.
n →∞ ⎝ n ⎠

Observaţie. Din teorema lui Bernoulli rezultă că frecvenţa relativă de apariţie a


evenimentului A în n probe independente converge în probabilitate către p = P(A):

α P
⎯⎯→ p
n n →∞

Acelaşi rezultat ar putea obţine şi ca urmare a faptului că sunt îndeplinite condiţiile teoremei
1
lui Cebâşev, deoarece D 2 ( Xn ) = pq ≤ , n∈N* adică variabilele aleatoare Xn au dispersii
4
egale mărginite.

Teorema lui Poisson. Dacă într-o succesiune de probe independente, probabilitatea de


apariţie a evenimentului A în proba de rang k este pk, atunci

⎛α 1 n ⎞
lim P⎜ − ∑ pk < ε ⎟ = 1
n →∞ ⎝ n n k =1 ⎠

unde α este număru lde apariţii ale avenimentului A în primele n probe.

Demonstraţie. Dacă introducem variabila aleatoare Xk cu numărul de apariţii ale


evenimentului A în proba de rang k, atunci

⎛ 1 0⎞
Xk: ⎜ ⎟ , pk + qk = 1, k=1,2,…n,…
⎝ pk qk ⎠

Rezultă că am obţinut şirul de varianbile aleatoare independente (Xn)n∈N* astfel încât:

104
1
M(Xn) = pk; D 2(Xk)=pkqk ≤ , k=1,2,...
4

1
adică dispersiile variabilelor şirului sunt uniform mărginite de c = . Sunt verificate
4
α 1 n ⎛1 n ⎞ 1 n
condiţiile teoremei lui Cebâşev şi, deci, cum = ∑ Xj şi M ⎜ ∑ Xk ⎟ = ∑ pk , rezultă
n n j =1 ⎝ n k =1 ⎠ n k =1

⎛α 1 n ⎞
lim P⎜ − ∑ pk < ε ⎟ = 1 .
n →∞ ⎝ n n k =1 ⎠

Exemplu. Se consideră şirul de variabile aleatoare independente (Xn)n∈N* cu repartiţiile


⎛− n 0 n⎞

Xn: 1 2 1 ⎟ , n = 2,3,4,…, P(X1=0)=1. Să se arate că şirul (Xn)n∈N* se supune
⎜ 1− ⎟
⎝n n n ⎠
legii numerelor mari.
Soluţie: M(Xk) = 0, k = 1,2,…
D2(Xk) = 2, k = 2,3,…

Atunci, fiind îndeplinite condiţiile teoremei lui Cebâşev, rezultă că şirul dat se supune legii
numerelor mari în varianta lui Cebâşev.

Exemplu. Fie şirul de variabile aleatoare independente (Xn)n∈N* cu repartiţiile


⎛ 0⎞ ⎛ - log k log k ⎞
X 1:⎜ ⎟ , Xk:⎜ ⎟ , k = 2,3,… Să se arate că şirul dat se supune legii numerelor
⎝ 1⎠ ⎝ 1/ 2 1/ 2 ⎠
mari în varianta lui Markov.
Soluţie. Prin calcul direct rezultă imediat că M(Xk) = 0, k = 1,2,…
D2(X1) = 0;
D2(Xk) = log k, k=2,3,…
atunci
⎛1 n ⎞ ⎛1 n ⎞ 1 n 1 n
M ⎜ ∑ Xk ⎟ 0 ; D 2 ⎜ ∑ Xk ⎟ = 2 ∑ D 2 ( Xk ) = 2 ∑ log k
⎝ n k =1 ⎠ ⎝ n k =1 ⎠ n k =1 n k =1

Însă
1 ⎡ ⎤
n n +1 n +1
1 n 1 1
∑ log k = ∑ ∫ dx⎥⎦ = ln 10 [( n + 1) ln( n + 1) − n]
n +1

k =1 ln 10 k =1
ln k <
ln 10 ∫ ln xdx =
A
⎢x ln x
ln 10 ⎣ 1

1

⎛1 n
⎞ ( n + 1) ln( n + 1) − n
Deci, D 2 ⎜ ∑ Xk ⎟ < ⎯n⎯⎯→ 0 .
→∞
⎝ n k =1 ⎠ n 2 ln 10

Sunt îndeplinite condiţiile teoremei lui Markov şi, deci, şirul (Xn)n∈N* se supune legii
numerelor mari.

Exemplu. Să se arate că şirul de variabile aleatoare independente (Xn)n∈N* unde Xn are


( x −θ n ) 2
1 −
densitatea de repartiţie f X n ( x ) = e n
, n∈N*, θ∈[0,1] se supune legii numerelor
π n
4

mari.
105
∞ ( x −θ k ) 2
1
∫ xe

Soluţie. Prin calcul direct, M ( Xk ) = k
dx = θ k , k∈N*;
π k 4
−∞
∞ ( x −θ k ) 2
1 k
∫( x − θ ) 2 −
D ( Xk ) =
2 k
e k
dx = , k∈N*.
π4 k −∞ 2
De aici rezultă că:

⎛1 n ⎞ 1 n θ − θ n +1
M ⎜ ∑ Xk⎟ = ∑ θ k =
⎝ n k =1 ⎠ n k =1 n(1 − θ )
⎛1 n ⎞ 1 n
1 n
k n n
D 2 ⎜ ∑ Xk ⎟ = 2 ∑ D 2 ( Xk ) = ∑ < ⎯⎯ ⎯→ 0
n →∞
⎝ n k =1 ⎠ n k =1 n2 k =1 2 2n 2

Deci, şirul (Xn)n∈N* se supune legii numerelor mari, unde şirul de numere reale (an)n∈N* este
θ − θ n +1
dat de an = , n∈N*.
n(1 − θ )


sin x
Exemplu. Să se precizeze dacă integrala I = ∫ dx , a > 0 se poate calcula prin metoda
a
x
n
1 1 a a
Monte-Carlo, cu formula In = ∑
n k =1 yk
sin , după efectuarea schimbării de variabilă y = şi
yk x
unde y1,y2,…,yn sunt numere aleatoare repartizate uniform pe intervalul [0,1].

Soluţie. Efectuându-se schimbarea de variabilă menţionată, se obţine:


0 1
1 a 1 a
I = − ∫ sin dy = ∫ sin dy
1 y y 0 y y

Valoarea In obţinută din formula indicată poate fi considerată ca o valoare aproximativă a


P
integralei numai în cazul în care lim P(| In − I | < ε ) = 1 deci, dacă şi numai dacă In ⎯⎯→ I .
n →∞ n→∞
Numerele aleatoare yk sunt identic repartizate (uniform repartizate) pe [0,1], deci şi
1 a
funcţiile de variabile aleatoare ϕ k ( yk ) = sin sunt identic repartizate. Atunci, pentru a
yk yk
putea aplica teorema lui Hincin de la legea numerelor mari, trebuie să dovedim existenţa
⎡1 a⎤
valorii medii M ⎢ sin ⎥ cu Y variabilă aleatoare uniform repartizată pe [0,1].
⎣Y Y⎦

1
⎡1 a⎤ 1 a
M ⎢ sin ⎥ există dacă şi numai dacă
⎣Y Y⎦ ∫ y sin y dy este absolut convergentă.
0

a
Fie s cel mai mic număr natural care satisface inegalitatea s ≥ . Atunci,
π
1 ∞ ∞ ( k +1)π ∞ π
1 a |sin x| |sin x| sin y
∫ sin dy = ∫ dx ≥ ∑ ∫ dx = ∑ ∫ dy
0
y y a
x k=s kπ
x k = s 0 y + kπ

106
Însă
∞ π ∞ π
sin y 1 2 ∞ 1
∑∫
k =s 0 y + kπ
dy > ∑ ∫
k = s π ( k + 1) 0
sin ydy = ∑
π k=s k +1
=∞

1
1 ⎡1 a⎤
De aici rezultă că integrala ∫
0
y
sin y dy este divergentă şi, deci, M ⎢ sin ⎥ nu există.
⎣Y Y⎦

În concluzie, nu se poate aplica teorema lui Hincin şi, deci, nu poate fi calculată
integrala prin metoda Monte-Carlo.

Exemplu. Într-o cercetare ştiinţifică se efectuează n experienţe, urmărindu-se apariţia unei


anumite caracteristici. Să se determine numărul minim de experienţe astfel încât, cu o
probabilitate de cel puţin 0.95, frecvenţa relativă de apariţie să difere în valoare absolută de
probabilitatea p cu mai puţin de 10-3.
Soluţie. Aplicând inegalitatea lui Cebâşev, se obţine:

⎛ k⎞
D2⎜ ⎟
⎛k ⎞ ⎝ n⎠ p(1 − p )
P⎜ − p < 10 − 3 ⎟ ≥ 1 − −6 = 1 −
⎝n ⎠ n ⋅ 10 n ⋅ 10 − 6

p(1 − p ) p(1 − p )10 6


Din inegalitatea 1 − −6
≥ 0.95 rezultă n ≥ = 2 p( p − 1)10 7
n ⋅10 0.05

Exemplu. Se efectuează 800 de probe independente. În 200 din ele probabilitatea apariţiei
unui rezultat aşteptat a fost de 0.5; în 400 de probe această probabilitate a fost de 0.4, iar în
restul probelor a fost de 0.3. Să se determine marginea inferioară a probabilităţii în abaterea
absolută a frecvenţei relative de apariţie a evenimentului astfel încât media probabilităţilor să
nu depăşească 0.04.
Soluţie. Se aplică teorema lui Poisson şi se obţine:

⎛k 1 ⎞
P⎜ − ( 200 ⋅ 0.5 + 400 ⋅ 0.4 + 200 ⋅ 0.3) < 0.04⎟ ≥ 0.817
⎝ n 800 ⎠

4.4. Teoreme limită

Am folosit până acum în mod deosebit convergenţa în probabilitate şi cu ajutorul ei


am exprimat legea numerelor mari în diverse variante. Vom utiliza acum convergenţa în
repartiţie şi vom obţine rezultate privind repartiţia limită a unui şir de variabile aleatoare
constituit adecvat pornind de la un şir dat de variabile aleatoare (Xn)n∈N* presupus a îndeplini
anumite condiţii.
Formularea generală a legilor limită se pune în modul următor:
Fie (Xn)n∈N* un şir de variabile aleatoare. Dacă există două şiruri de numere reale (an)n∈N* şi
Xn − an B
(bn)n∈N* astfel încât ⎯⎯→ X , unde X are o lege de repartiţie determinată, atunci
bn n →∞

repartiţiile astfel obţinute constituie o familie pe care o numim familia repartiţiilor de tip L,
în care legea normală ocupă un loc deosebit de important.
107
Înainte de a pune în evidenţă legi limită normale N(m;σ), vom formula unele rezultate
importante fără a le demonstra - pe care apoi le vom utiliza.

Teoremă. Fie (Xn)n∈N* un şir de variabile aleatoare. Dacă lim FX n ( x ) = Fx ( x ) în orice x∈R
n →∞

punct de continuitate al funcţiei de repartiţie FX, atunci şirul (ϕXn(t))n∈N* converge către ϕX(t)
uniform, în orice interval (a,b]⊂R.

Teoremă. Dacă (ϕXn(t))n∈N* este şirul funcţiilor caracteristice, corespunzător şirului de


funcţii de repartiţie (FXn(x))n∈N* şi dacă lim ϕ X n ( t ) = ϕ ( t ) , t∈R, ϕ(t) continuă în t = 0, atunci
n →∞

ϕ(t) este o funcţie caracteristică şi şirul (FXn(x))n∈N* converge către F în orice punct de
continuitate al funcţiei F, funcţia de repartiţie corespunzătoare funcţiei caracteristice ϕ(t).

Teoremă. Fie (Xn)n∈N* un şir de variabile aleatoare care au momente de orice ordin. Dacă
pentru orice k∈N Mk ( Xn ) ⎯n⎯⎯→ Mk ( X ) , atunci lim P( Xn < x ) = P( X < x ) .
→∞
n →∞

4.5. Teorema limită centrală (Lindeberg-Levy). Fie (Xn)n∈N* un şir de variabile aleatoare
independente, identic repartizate, care admit momente de ordinul unu şi doi. Dacă se
n
⎛ n ⎞

k =1
Xk − M ⎜ ∑ Xk ⎟
⎝ k =1 ⎠
consideră şirul de variabile aleatoare (Yn)n∈N* Yn = , n∈N*, atunci
⎛ n ⎞
D⎜ ∑ Xk ⎟
⎝ k =1 ⎠
x y2
1 −
∫e
B
⎯→ X ∈ N ( 0;1) , adică lim Fn( x ) = lim P(ω : Yn(ω ) < x ) =
Yn ⎯ 2
dy .
n →∞ n →∞ n →∞ 2π −∞

Demonstraţie. Se constată imediat că

⎛ n ⎞ n
M ⎜ ∑ Xk⎟ = ∑ M ( Xk ) = nm; m = M ( Xk ), k = 1,2,...
⎝ k =1 ⎠ k =1
⎛ n ⎞ n
D 2 ⎜ ∑ Xk ⎟ = ∑ D 2 ( Xk ) = nσ 2 ; σ 2 = D 2 ( Xk ), k = 1,2,.. .
⎝ k =1 ⎠ k =1
şi, deci,
n

∑(X
k =1
k − m)
Yn =
n ⋅σ

Atunci,
⎛ k∑=1( Xk − m ) ⎞
n

⎛ n i ⎞ ⎛ i ⎞
( )
t t
⎜ it nσ ⎟ ( Xk − m ) n ( Xk − m )

⎟⎟ = M ⎜ ∏ e ⎟ = ∏ M⎜e
it Yn
ϕY (t ) = M e = M⎜e nσ nσ ⎟=
n
⎜ ⎝ k =1 ⎠ k =1 ⎝ ⎠
⎝ ⎠
n
n
⎛ t ⎞ ⎛ ⎛ t ⎞⎞
= ∏ ϕ ( Xk − m ) ⎜ ⎟ = ⎜ϕ ⎜ ⎟⎟
k =1 ⎝ nσ ⎠ ⎝ ⎝ nσ ⎠ ⎠

108
t
Cum pentru orice t∈R, dacă n este suficent de mare, < 1, atunci putem dezvolta

în serie în jurul originii funcţia ϕ şi obţinem

⎛ t ⎞ σ 2 t2 ⎛ 1 ⎞ t2 ⎛ 1 ⎞
ϕ⎜ ⎟ = 1 − + θ ⎜ ⎟ = 1 − + θ ⎜ 3/ 2 ⎟
⎝ nσ ⎠ 2! σ n
2
⎝n ⎠
3/ 2
2n ⎝n ⎠

n
⎛ ⎞
2
t2 −
t
Urmează că ϕ Yn ( t ) = ⎜1 − (1 + ε n )⎟ , lim ε n = 0 şi, de aici, lim ϕ Yn ( t ) = e 2 .
⎝ 2n ⎠ n →∞ n →∞

x y2
1 −
Din teorema de inversiune şi unicitare rezultă că lim FYn ( x ) =
n →∞ 2π

−∞
e 2
dy .

Teorema lui Liapunov. Fie (Xn)n∈N* un şir de variabile aleatoare idependente pentru care

există M(Xk) = mk, D2(Xk) = D2k, M(|Xk - mk|3) = H3k, k∈N*.

1/ 3
⎛ n ⎞ ⎛ n ⎞ Kn
Notăm Sn = ⎜ ∑ D k2 ⎟ ; Kn = ⎜ ∑ H k3 ⎟ . Dacă lim = 0 , atunci
⎝ k =1 ⎠ ⎝ k =1 ⎠ n→∞ Sn

n
⎛ n ⎞

k =1
Xk − M ⎜ ∑ Xk ⎟
⎝ k =1 ⎠ B
Yn = ⎯
⎯→ X ∈ N ( 0,1) ,
⎛ ⎞n n →∞
D⎜ ∑ Xk ⎟
⎝ k =1 ⎠

x y2
1 −
adică lim FYn ( x ) =
n →∞ 2π

−∞
e 2
dy .

Demonstraţie.
⎛ n ⎞ n
Vom folosi tot metoda funcţiei caracteristice; cum D ⎜ ∑ Xk ⎟ = ∑ D 2 ( Xk ) = S n2 , 2
⎝ k = 1 ⎠ k =1
n

∑(X
k =1
k − mk )
variabila aleatoare Yn mai poate fi scrisă sub foma Yn = şi, cu aceasta,
Sn

⎛ i t ∑n ( Xk − mk ) ⎞ ⎛ n i t ( Xk − mk ) ⎞ n ⎛ i t ( Xk − mk ) ⎞
ϕ Yn (t ) = M e( it Yn
= M ⎜e

) Sn k =1
⎟ = M ⎜∏ e
⎠ ⎝ k =1
Sn
⎟ = ∏ M ⎜e n
⎠ k =1 ⎝
S


n
⎛ t⎞
Deci, ϕYn ( t ) = ∏ ϕ Xk − mk ⎜ ⎟ . Dar, ϕ X k − mk ( t ) = e − itmk ϕ X k ( t ) = ak ( t ) + ibk ( t ) .
k =1
⎝ Sn ⎠

Dacă notăm cu Gk(x) funcţia de repartiţie a variabilei aleatoare Xk = mk, rezultă că:

109
∞ ∞
Dk2 t 2 t 3
ak (t ) = ∫ cos txdGk (x ) = 1 − + ∫θ x 1
3
dGk (x )
−∞ 2 6 −∞
∞ ∞
, cu |θj| < 1, j=1,2
t3
bk (t ) = ∫ sin txdGk (x ) = − ∫θ 2
3
x dGk (x )
−∞ 6 −∞

Dk2 t 2
Atunci, ϕ X k − mk ( t ) = 1 − + t 3 Rk , unde
2

∞ ∞
1 1 H k3
| Rk| =
6 ∫ (θ1 x − θ2 x ) dGk( x ) ≤ 6 −∞∫ | x ||θ1 − θ2 | dGk( x ) ≤ 3
−∞
3 3 3

⎛ t⎞ Dk2 t 2 t3
şi, de aici, ϕ X k − mk ⎜ ⎟ = 1 − + , iar
⎝ Sn ⎠ 2S n2 3S n3

n
t n
⎛ D 2 t 2 t 3 Rk ⎞
ln ϕYn ( t ) = ∑ ln ϕ X k − mk ( ) = ∑ ln ⎜1 − k 2 + ⎟.
k =1 Sn k =1 ⎝ 2S n 3S n3 ⎠

Kn
Deoarece → 0 când n→∞, rezultă că oricare ar fi ε > 0, există un rang N(ε) astfel
Sn
Kn ε H k3 ε 3
încât pentru orice n > N(ε) să avem < , t ≠ 0 . De aici rezultă că 3 < 3 , dacă
Sn | t | S n | t|
n > N(ε).

Din inegalitatea lui Liapunov (monotonia momentelor absolute) avem Dk ≤ Hk, k∈N* şi, deci,
2/3
Dk2 H k2 ⎛ H k3 ⎞ H n2 ε 2
≤ 2 =⎜ 3 ⎟ ≤ 2 ≤ 2 , k = 1,2, ... , n . Atunci, pentru orice ε > 0,
S n2 Sn ⎝ Sn ⎠ Sn t

t 2 D k2 t 3 Rk ε 2 ε 3
− + < + <ε2
2 S n2 3S n3 2 3

n
⎛ D 2 t 2 t 3 Rk ⎞
Să punem ln ϕ Yn ( t ) = ∑ ln⎜1 − k 2 + ⎟ sub forma:
k =1 ⎝ 2S n 3S n3 ⎠

t2 n ⎡
⎛ D k2 t 2 t 3 Rk ⎞ D k2 t 2 ⎤
ln ϕ Yn ( t ) + = ∑ ⎢ln ⎜1 − + ⎟+ ⎥
2 k =1 ⎢⎣ ⎝ 2 S k2 3S n3 ⎠ 2S n2 ⎥⎦

1 t 2 Dk2 t 3 Rk
Cum |ln(1 + x ) − x| ≤| x | dacã | x| ≤ , cu notaţia Ak = −
2
, Bk = , putem scrie
2 2 S n2 3S n3

t2 n n n
ln ϕ Yn ( t ) +
2
= ∑ ln(1 + Ak + Bk ) − ( Ak + Bk ) + Bk ≤ ∑ | Ak + Bk| 2 + ∑ | Bk|
k =1 k =1 k =1

110
n
| t|3 K n3 ε 3 n n
| t| 2 ε 5
Dar ∑ | Bk| ≤
k =1 3S n3

3
, iar ∑ | Ak + Bk| 2 ≤ ε 2 ∑ (| Ak|+| Bk|) ≤ ε 2 2
+
3
.
k =1 k =1

t 2 ε 2 | t| 2 ε 5 ε 3 1
Urmează, de aici, că ln ϕ Yn ( t ) + ≤ + + < ε , dacă ε < .
2 2 3 3 3| t| 2

t2

Deci, lim ϕ Yn ( t ) = e 2
şi, din teorema de convergenţă a funcţiilor caracteristice, rezultă că
n →∞
x y2
1 −
lim FYn ( x ) =
n →∞ ∫e
2π −∞
2
dy

Observaţie. Dacă variabilele şirului (Xn)n∈N* sunt identic repartizate, atunci


1/ 2 1/ 3
⎛ ⎞ n
⎛ ⎞ n
Dk2 = σ 2 ; H k3 = H 3 , k∈N* şi Sn = ⎜ ∑ Dk2 ⎟ = σ n ; Kn = ⎜ ∑ H k3 ⎟ = H 3 n . Urmează că
⎝ k =1 ⎠ ⎝ k =1 ⎠

Kn H − 16
= n ⎯⎯ ⎯→ 0 adică este îndeplinită condiţia lui Liapunov.
Sn σ n →∞

Observaţie. Dacă variabilele sirului (Xn)n∈N* satisfac proprietăţile: |Xk - mk| ≤ A, k=1,2,… şi
lim Sn = +∞ ,
n→∞
atunci H k3 = M ( Xk − mk 3) ≤ A ⋅ M Xk − mk = A ⋅ D k2
2
( şi )
⎛ n 3⎞
n
Kn = ⎜ ∑ H k ⎟ ≤ A ∑ Dk2 = A1/ 3 S n2 / 3 .
3
⎝ k =1 ⎠ k =1

Kn A1/ 3 S n2 / 3
Rezultă că ≤ = A1/ 3 S n−1/ 3 ⎯⎯ ⎯→ 0 şi, deci, în acest caz, condiţia lui Liapunov
n →∞
Sn Sn
este îndeplinită.

4.6. Teorema Moivre-Laplace. Fie un experiment în care poate să apară evenimentul A cu


probabilitatea p sau contrariul lui A cu probabilitatea q, p+q=1. Dacă se repetă de n ori
experimentul în aceleaşi condiţii şi dacă se notează cu k numărul de realizări ale
evenimentului A în cele n experimente independente, atunci:
⎛ k − np ⎞ 1
x

lim P⎜⎜ < x⎟⎟ = ∫


2
e − y / 2 dy
n →∞
⎝ npq ⎠ 2π −∞
Demonstraţie.
⎛ 1 0⎞
Asociem experimentului de rang j, variabila aleatoare Xj: ⎜ ⎟.
⎝ p q⎠
n ⎛ n ⎞ ⎛ n ⎞
Atunci, K = ∑ Xj; M ⎜ ∑ Xj⎟ = np; D 2 ⎜ ∑ Xj⎟ = npq . Cum variabilele Xj, j=1,2,… sunt
j =1 ⎝ j =1 ⎠ ⎝ j =1 ⎠
independente, se poate aplica teorema limită centrală Lindeberg-Lévy şi, deci,
⎛ n ⎛ n ⎞ ⎞
⎛ k − np ⎞ ⎜ ∑ X j − M ⎜ ∑ Xj ⎟
⎝ j =1 ⎠

1 x − y2
2

⎜ ⎟ ∫ e dy
j =1
lim P⎜ < x ⎟ = lim P <x =
n →∞
⎝ npq ⎠ n →∞ ⎜ ⎛ n ⎞ ⎟ 2π −∞
⎜ D⎜ ∑ Xj ⎟ ⎟
⎝ ⎝ j =1 ⎠ ⎠

Observaţie. În condiţiile teoremei de mai sus,

111
⎛k ⎞
⎛ k − np ⎞ ⎜ −p ⎟ x y2
⎜ 1
< x⎟ =
n −
lim P⎜⎜
n →∞
⎝ npq
< x ⎟⎟

= lim P
n →∞ ⎜ pq ⎟ 2π
∫e
−∞
2
dy
⎜ ⎟
⎝ n ⎠

⎛ k ⎞
⎜ −p ⎟
⎜ n < β ⎟ ≅ Φ( β ) − Φ(α ) .
De aici rezultă, dacă n este suficient de mare, P α ≤
⎜ pq ⎟
⎜ ⎟
⎝ n ⎠
De asemenea, pentru n suficient de mare,

⎛ k ⎞ ⎛ ⎞ ⎛ ⎞
⎜ −p ⎟ ⎜ ⎟ ⎜ ⎟
⎛ k ⎞ ⎛ k ⎞ ⎜ a− p n b − p⎟ ⎜ b − p⎟ ⎜ a − p⎟
P⎜ a ≤ ≤ b⎟ = P⎜ a − p ≤ − p ≤ b − p⎟ = P ≤ ≤ ≅Φ −Φ
⎝ n ⎠ ⎝ n ⎠ ⎜ pq pq pq ⎟ ⎜ pq ⎟ ⎜ pq ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ n n n ⎠ ⎝ n ⎠ ⎝ n ⎠

Exemplu. Cu ce probabilitate putem afirma că din 100 de aruncări a unei monede, stema
apare de un număr de ori cuprins între 40 şi 60?
Soluţie. Aplicăm teorema Moivre-Laplace, ştiind că p = q = 1/2, n = 100.

⎛ ⎞ ⎛ ⎞
⎛ 40 − np k − np 60 − np ⎞ ⎜ 60 − 50 ⎟ ⎜ 40 − 50 ⎟
P (40 ≤ k ≤ 60) = P⎜ ≤ ≤ ⎟ ≅ Φ⎜ ⎟ − Φ⎜ ⎟ = Φ(2 ) − Φ(−2 ) =
⎝ npq npq npq ⎠ ⎜⎜ 100 ⎟⎟ ⎜⎜ 100 ⎟⎟
⎝ 4 ⎠ ⎝ 4 ⎠
= 2Φ(2 ) − 1 = 0,9544

Exemplu. Să considerăm şirul de variabile aleatoare independente (Xn)n∈N*, cu repartiţiile:


⎛ 1 1 ⎞
- 0 ⎛1 1⎤
α ⎟ , p ∈ ( 0,1), α ∈ ⎜ ,
X n: ⎜ n α n , n∈N*. Să se arate că şirului (Xn)n∈N* i se
⎜ ⎟ ⎝ 3 2 ⎥⎦
⎝p 1− 2 p p ⎠
poate aplica teorema lui Liapunov.
Soluţie. Căutăm să vedem dacă sunt îndeplinite condiţiile teoremei lui Liapunov.

2p
M ( Xk ) = 0, M ( X k2 ) = D k2 = , k∈N*
k 2α
3 2p
M ( Xk ) = H k3 = , k∈N*
k 3α
n n
1 n n
1
De aici urmează că: S = ∑ D = 2 p∑
2 2
2α ; K = ∑ H = 2 p∑
3 3
.
n
k =1
k
k =1 k n
k =1
k
k =1 k 3α
n n
1 1 3 1 1
Întrucât < α ≤ , rezultă că 1 < 3α ≤ şi, de aici, lim ∑ 3α = ∑ 3α convergentă.
3 2 2 n→∞
k =1 k k =1 k

112
n n n
1 1 1
Pe de altă parte, ∑k α >∑k
k =1
2
k =1
ş i lim ∑
n →∞
k =1 k
= +∞ .

Kn
De aici urmează că lim = 0 şi, fiind îndeplinite condiţiile teoremei lui Liapunov, afirmaţia
n→∞ Sn

este dovedită.

Exemplu. Se consideră şirul de variabile aleatoare independente (Xn)n∈N* identic repartizate,


⎧1, x ∈ (0,1)
f X n (x) = ⎨
⎩0, x ∉ (0,1)
Să se aplice teorema lui Liapunov şirului dat şi să se deducă de aici un mod de generare a
valorilor unei variabile repartizată normal N(0;1).
Soluţie.
Am văzut că în cazul variabilelor aleatoare identic repartizate, pentru care există
momentele de primele trei ordine, condiţia lui Liapunov este îndeplinită şi, deci,

⎛ n ⎛ n ⎞ ⎞
⎜ ∑ X k − M ⎜ ∑ Xk ⎟ ⎟ y2
⎜ k =1 ⎝ k =1 ⎠ ⎟ 1
x

lim P⎜
n →∞ ⎛ n

< x⎟ =

∫e 2
dy
⎜ D ⎜ ∑ Xk ⎟ ⎟ −∞

⎝ ⎝ k =1 ⎠ ⎠

n
⎛ n ⎞
∑X
k =1
k − M ⎜ ∑ Xk ⎟
⎝ k =1 ⎠
Prin umare, variabila aleatoare urmează aproximativ o lege normală
⎛ n ⎞
D⎜ ∑ Xk ⎟
⎝ k =1 ⎠
N(0;1), dacă n este suficient de mare.
n
n
1 1
∑X
k =1
k −
2
Dar M ( Xk ) = , D 2 (Xk) = , k = 1,2,... şi atunci pentru n suficient de
2 12 n
12
mare, este aproximativ normală N(0;1). Pentru n=12 se obţine o aproximaţie destul de bună şi
12
atunci ∑X
k =1
k − 6 este aproximativ normală N(0;1). Se alege un set de 12 numere aleatoare

uniform repartizate pe intervalul (0,1): r1,r2,…,r12. Cu acestea se obţine o valoare δ1 a unei


variabile aleatoare normală N(0;1). Se repetă procedeul luând un alt set de 12 numere
uniforme pe (0,1) ş.a.m.d., până se obţine numărul dorit de valori ale variabilei normale
N(0;1).
Se constată că procedeul este destul de simplu, dar cum pentru un set de 12 numere
uniform repartizate pe (0,1) se obţine un număr repartizat N(0;1) - procedeul este ineficient
când avem nevoie să obţinem un număr destul de mare de astfel de valori.

Exemplu. Dacă numărul n de grade de libertate al unei repartiţii χ (2n ) tinde către ∞, atunci
x y2
1 −
Fχ 2 ( x ) ⎯n⎯
(n)
⎯→ Φ( x ) =
→∞

∫e
−∞
2
dy .

Demonstraţie.
113
χ (2n ) − M ( χ (2n ) ) χ (2n ) − n
Să scriem funcţia caracteristică a variabilei aleatoare = .
D( χ (2n ) ) 2n
n
⎛ it χ( n ) − n ⎞ −
2
− it
n
⎡ i t
χ (2n ) ⎤ it
n
⎛ t ⎞ it
n
⎛ 2 ⎞ 2
ϕn( t ) = M ⎜ e 2 n ⎟ = e 2
M ⎢e 2π
⎥ = e 2 ϕ χ (2n ) ⎜ ⎟ =e 2
⎜1 − i t⎟
⎜ ⎟ ⎢⎣ ⎥⎦ ⎝ 2n ⎠ ⎝ n ⎠
⎝ ⎠

Logaritmând (luăm determinarea principală a funcţiei logaritm) se obţine:

n n ⎛ 2 ⎞
ln ϕ n ( t ) = − ti − ln⎜1 − ti⎟
2 2 ⎝ n ⎠

Întrucât trebuie să facem n→∞, rezultă că pentru n suficient de mare, oricare ar fi t∈R,
2 n n⎡ 2 2 t2 ⎛ − 3 ⎞⎤
t <1 şi, deci, ln ϕ n (t) = − ti + ⎢ ti- + θ ⎜ n 2 ⎟⎥ adică
n 2 2⎣ n n 2 ⎝ ⎠⎦
t2 ⎛ − 12 ⎞ ⎛ − 12 ⎞
ln ϕ n ( t ) = − + θ ⎜ n ⎟ = 0; lim θ ⎜ n ⎟ = 0 .
2 ⎝ ⎠ n →∞ ⎝ ⎠
2
t2 −
t
Trecând la limită, lim ln ϕ n ( t ) = − şi, deci , lim ϕ n ( t ) = e 2 care este tocmai
n →∞ 2 n →∞

funcţia caracteristică a legii normale N(0;1). De aici rezultă afirmaţia.

Exemplu. Dacă n, numărul gradelor de libertate, tinde la infinit, atunci repartiţia Student cu
n grade de libertate tinde către repartiţia normală N(0;1).
Demonstraţie. Este suficient să arătăm că şirul momentelor Mr(T(n)) cu r = 0,1,2,… tinde
către Mr(X) unde X∈N(0;1).
n r ⋅ 1 ⋅ 3⋅...⋅( 2r − 3)( 2r − 1)
Am văzut că M2r+1(T(n)) = 0; M2r+1(X) = 0, iar M 2r (T ( n )) = .
( n − 2)( n − 4)...( n − 2r )
De aici,
n r ⋅ 1 ⋅ 3⋅...⋅( 2r − 3)( 2r − 1)
lim M 2 r (T ( n )) = lim = 1 ⋅ 3 ⋅ 5⋅...⋅( 2r − 1)
n →∞ n →∞ ( n − 2 )( n − 4 )...( n − 2r )

Cum M2r(X) = 1⋅3⋅5⋅…⋅(2r-1), rezultă afirmaţia.

Vom pune în evidenţă teorema limită centrală a calculului probabilităţilor în


formularea J.W.Lindeberg şi W.Feller şi vor rezulta ca simple consecinţe teoremele limită
demonstrate de noi direct, în paginile anterioare.
Demonstraţia nu o vom da, dat fiind faptul că este laborioasă, iar cei interesaţi o pot
găsi în cursul de "Teoria probabilităţilor şi statistică matematică" de M.Iosifescu, Gh.Mihoc,
R.Theodorescu, apărut în Editura Tehnică, 1966.
Considerăm un şir de variabile aleatoare independente (Xn)n∈N* care admit dispersii
finite. Vom nota
M ( Xk ) = mk , D 2 (Xk) = σ k2 , k∈N*
n n
1 n
mn = ∑ mk ş i S n2 = ∑ σ k2 , Yn = ∑ ( Xk − mk )
k =1 k =1 Sn k =1

114
Definiţie. Spunem că şirul de variabile aleatoare independente (Xn)n∈N* verifică condiţia “L”
(condiţia Lindeberg) dacă, pentru orice ε > 0, are loc relaţia:

n
1
(L) lim α n (ε ) = lim
n →∞ n →∞ S 2
∑ ∫ ( xε − mk )
k =1 {x ;|x − mk |> S n }
2
dFk ( x ) = 0 ,
n

unde Fk(x) = P({ω; Xk(ω < x}).

4.7. Teorema Lindeberg-Feller. Fie (Xn)n∈N* un şir de variabile aleatoare independente. Atunci,

σ k2
lim FYn ( x ) = Φ( x ), x∈R şi lim max =0 dacă şi numai dacă
n →∞ n→∞ 1≤ k ≤ n S n2
n
1
lim
n →∞ S 2
∑ ∫ ( xε − mk )
k =1 { x ;| x − mk | > S n }
2
dFk ( x ) = 0 (este satisfăcută condiţia (L)).
n

Să punem în evidenţă unele consecinţe directe ale teoremei Lindeberg-Feller.

Consecinţă. Dacă variabilele aleatoare ce compun şirul de variabile independente (Xn)n∈N*


sunt identic repartizate, atunci
lim FYn ( x ) = Φ( x ), (∀) x∈R
n →∞

Demonstraţie.
În acest caz, M ( Xk ) = m, D 2 (Xk) = σ 2 , k∈N* şi, deci, Sn = σ n .
Cu acestea, condiţia lui Lindeberg devine

n
1 1
α n (ε ) = ∑ ∫ ( x − m)
2
dF ( x ) = n ∫ ( x − m)
2
dF ( x )
k =1 nσ nσ 2
2
{ x ;| x − m|> εσ n } { x ;| x − m| > εσ n }

şi, deci
lim α n (ε ) = 0 , adică este îndeplinită condiţia lui Lindeberg.
n →∞

Consecinţă. Dacă şirul de variabile aleatoare indpendente (Xn)n∈N* are proprietatea că


variabilele aleatoare Xn sunt uniform mărginite, admit dispersii finite şi lim Sn = +∞ atunci
n→∞

lim FYn ( x ) = Φ( x ) .
n →∞

Demonstraţie. Dat fiind că variabilele aleatoare Xk, k∈N* sunt uniform mărginite, rezultă că
(∃) A > 0 astfel încât Xk - mk ≤ A, k∈N*. De aici rezultă că:

∫ (εx − m )
{| x − mk |> S n }
k
2
dF ( x ) = ∫ ( Xε (ω ) − m )
k
{ω ;| x k ( )− mk |> S n }
ω
k
2
dP(ω ) ≤ A 2 P({ω ;| Xk (ω ) − mk| ≥ ε Sn})

Întrucât lim Sn = +∞ , putem lua n suficient de mare astfel încât εSn > A, şi, în acest caz,
n→∞

P({ω;|Xk(ω) - mk| > εSn}) = 0

115
∫ (εx − m ) dF ( x ) = 0 , k∈N*, ceea ce implică verificarea condiţiei (L).
2
şi, deci, k
{| x − mk |> S n }

Bazaţi pe teorema limită centrală Lindeberg-Feller putem demonstra uşor teorema lui
Leapunov, pe care am demonstrat-o anterior independent.

Teorema Leapunov. Fie şirul de variabile aleatoare independente (Xn)n∈N* . Dacă există η>0
astfel încât:

1
η ∑M( x ) = 0,
n
2 +η
lim β n (η ) = lim 2+ k − mk
n →∞ n →∞ S n k =1

atunci lim FYn ( x ) = Φ( x ), (∀) x∈R.


n →∞

Demonstraţie. Vom căuta să vedem dacă este îndeplinită condiţia (L):

1 n
ε η S nη 1 n
1
α n (ε ) =
S n2
∑ ∫ε
k =1 {| x − mk |> S n }
( x − mk )2 η η dFk ( x ) = η 2+η
ε Sn ε Sn

k =1
∫ εx − m k
2+η
dFk ( x ) ≤
εη
βn (η )
{|x − m|> S n }

1
Trecând la limită, 0 ≤ lim α n ( ε ) ≤ lim β (η ) = 0 , adică este satisfăcută condiţia "L".
ε η n→∞ n n→∞

Pentru η = 1 se obţine exact formularea teoremei Leapunov, pe care am demonstrat-o direct


anterior.
Dacă pentru şirul de variabile aleatoare independente (Xn)n∈N* există
1
Kn ⎛ n 3⎞3
(
H k3 = M xk − mk
3
) , k∈N* şi dacă lim
n →∞ Sn
= 0, unde K n = ⎜ ∑ H k ⎟ , atunci
⎝ k =1 ⎠

lim FYn ( x ) = Φ( x ), (∀) x∈R.


n →∞

116
Capitolul 5

PROCESE MARKOV ŞI POISSON

5.1. Procese Markov depinzând de un parametru discret

Să considerăm un câmp de probabilitate {Ω,K,P} complet aditiv şi mulţimea


variabilelor aleatoare reale definite pe acest câmp, pe care o notăm cu V şi T⊂R.

Definiţie. Numim proces stochastic cu mulţimea de parametri T o aplicaţie


X: T→ V
Să explicăm puţin noţiunea de proces stochastic introdusă mai sus. Pentru aceasta să
admitem că variabilele aleatoare din mulţimea V descriu starea unui anumit sistem, iar
mulţimea T a parametrilor reprezintă timpul. Atunci, un proces stochastic reflectă evoluţia în
timp a unui sistem dat.
De obicei, se ia drept mulţime T a parametrilor fie toată dreapta reală, R=T=(-∞,+∞),
fie numai semiaxa pozitivă T=(0,∞) sau T=[0,∞), fie un segment finit al dreptei reale, de
regulă T=[0,1].
Procesele stochastice ne oferă posibilitatea să privim sistemele în mişcare, ca de altfel
şi funcţiile obişnuite din analiza matematică. Spre deosebire însă de starea clasică, starea
sistemului la un moment dat nu mai este perfect determinată, ci este aleatoare, ceea ce
înseamnă că ea nu poate fi cunoscută decât probabilistic.
Formal, un proces stochastic depinde de două variabile: t∈T şi ω∈Ω. De aceea vom
scrie X(t,ω) sau Xt(ω).
Pentru fiecare t∈T, Xt(.) este o variabilă aleatoare definită pe {Ω,K,P} şi pentru
fiecare ω∈Ω (cu alte cuvinte, pentru fiecare realizare ω∈Ω, X(t,.) reprezintă o funcţie definită
pe T), X(t,.) este o funcţie de variabilă reală t∈T.
Dacă card T = n, adică T conţine numai un număr finit de elemente, T={t1,t2,…,tn},
atunci procesul stochastic {Xt, t∈T} este echivalent cu un vector aleator.
În cazul în care T este o mulţime numărabilă, se ia ca mulţime a parametrilor fie
mulţimea Z={…,-n,…,-1,0,1,…,n,…}, fie mulţimea N={0,1,2,…,n,…}. În acest caz, procesul
este un şir de variabile aleatoare şi-l vom numi lanţ.
Am văzut că o variabilă aleatoare se consideră determinată dacă se cunoaşte funcţia ei
de repartiţie. În cazul unui proces stochastic, acesta va fi determinat dacă se cunosc toate
funcţiile de repartiţie finit dimensionale, ceea ce înseamnă că pentru orice n∈N, orice
t1,t2,…,tn∈T şi orice x1,x2,…,xn∈R se cunosc probabilităţile:

P({ω : X t1 (ω ) < x1, X t2 (ω ) < x 2,..., X tn (ω ) < xn}) = Ft1 ,t2 ,...,tn ( x1 , x 2 ,..., x n )

În afara proprietăţilor cunoscute pentru funcţiile de repartiţie n-dimensionale, aceste


funcţii trebuie să mai satisfacă următoarele proprietăţi de consistenţă:

(1) lim Ft1 ,t2 ,...,tn ( x1 , x 2 ,..., x n ) = Ft1 ,t2 ,...,t j −1t j +1 ,...tn ( x1 , x 2 ,..., x j −1 x j +1 ,... x n )
x j →∞

(2) oricare ar fi permutarea (i1,i2,…,in) a lui (1,2,…,n),

Fti1 ,ti 2 ,...,ti n ( xi1 , x i2 ,..., x in ) = Ft1 ,t2 ,..,tn ( x1 , x 2 ,..., x n )

117
Să vedem ce se întâmplă cu două procese cărora le corespund aceeaşi familie de
funcţii de repartiţie finit dimensionale. Fără a intra în amănunte, vom da numai următoarea
definiţie:

Definiţie. Două procese stochastice definite pe aceeaşi mulţime de parametri se numesc


echivalente dacă toate repartiţiile finit dimensionale corespunzătoare lor coincid.
Noi vom considera acum procese stochastice depinzând de un parametru discret, în
care T=N={0,1,2,…,n,…}.
Fie, deci, un câmp de probabilitate {Ω,K,P} şi (Xn)n∈N, un şir de variabile aleatoare
definite pe acest câmp.
Vom presupune că fiecare variabilă aleatoare Xn este de tip discret şi să notăm cu I
reuniunea valorilor posibile pe care le pot lua variabilele Xn, n∈N. Rezultă imediat că I este o
mulţime cel mult numărabilă şi că i∈I dacă şi numai dacă există n∈N astfel încât
P(ω:Xn(ω)=i) > 0.
Mulţimea I o vom numi mulţimea de stări ale procesului stochastic de parametru
discret (Xn)n∈N.

Definiţie. Spunem că şirul de variabile aleatoare (Xn)n∈N constituie un lanţ Markov dacă
pentru orice n∈N, n≥2, orice t1,t2,…,tn, 0≤t1<t2<…<tn şi orice i1,i2,…,in∈I are loc relaţia

(*) P(ω: X t n (ω ) = in / X t n −1 (ω ) = in −1 ,..., X t1 (ω ) = i1 ) = P(ω: X t n (ω ) = in / X t n −1 (ω ) = in −1 ) ,

ori de câte ori membrul stâng al egalităţii este definit.

Se poate demonstra că relaţia de definiţia a lanţului Markov este echivalentă cu


următoarea condiţie aparent mai simplă: pentru orice n∈N,

P(ω: Xn(ω ) = in / X n −1 (ω ) = in −1 ,..., X 0 (ω ) = i0 ) = P(ω: X n (ω ) = in / X n −1 (ω ) = in −1 )

Din definiţia dată lanţului Markov, rezultă că acesta reflectă un sistem ce evoluează în
timp discret, evoluţie a cărei stare viitoare depinde numai de starea prezentă, indiferent ce s-a
petrecut cu stările sistemului în trecut (anterioare prezentului). Se mai spune că un astfel de
sistem este fără memorie.
Putem acum să introducem o definiţie echivalentă a unui lanţ Markov prin propoziţia
care urmează.
Propoziţie. Şirul de variabile aleatoare (Xn)n∈N constituie un lanţ Markov dacă şi numai dacă
pentru orice m≥0 şi orice t1,t2,…,tn+m, 0≤t1<t2<…<tn+m şi orice i1,i2,…,in+m∈I are loc relaţia:
P( X tV (ω ) = iV , n ≤ V ≤ n+m / X tV (ω ) = iV ,..., X tV (ω ) = iV ,1 ≤ V ≤ n-1) =
(**)
= P( X tV (ω ) = iV , n ≤ V ≤ n+m / X tn −1 (ω ) = in −1 )
Demonstraţie. Vom proceda prin inducţie asupra lui m∈N.
Pentru m = 0, relaţia (**) se reduce la relaţia (*) de definiţie a unui lanţ Markov. Să
presupunem că (**) este adevărată pentru un m dat şi să arătăm că ea este adevărată pentru
m+1.
Într-adevăr,

118
P ( X t V (ω ) = i V ,1 ≤ V ≤ n+m + 1)
P( X t V (ω ) = i V , n ≤ V ≤ n+m + 1 / X tV (ω ) = iV ,1 ≤ V ≤ n-1) = =
P( X t V (ω ) = i V ,1 ≤ V ≤ n − 1)
( )
P( X t(ω ) = i n + m+1 / X tVω = i V ,1 ≤ V ≤ n+m) ⋅ P( X t V (ω ) = i V ,1 ≤ V ≤ n+m
= =
n + m +1

P( X t V (ω ) = i V ,1 ≤ V ≤ n − 1
= P ( X t n + m+1 (ω ) = i n + m+1 / X t n + m (ω ) = i n + m ) P( X t V (ω ) = i V , n ≤ V ≤ n+m / X t V (ω ) = i V ,1 ≤ V ≤ n − 1)

care, conform ipotezei de inducţie, devine:

( )(
P X tn + m+1 (ω ) = in + m+1 / X tn+ m (ω ) = in + m P X tV (ω ) = iV , n ≤ V ≤ n+m / X tn −1 (ω ) = in −1 = )
( )(
= P X tn + m+1 (ω ) = in+ m+1 / X tV (ω ) = iV , n − 1 ≤ V ≤ n+m P X tV (ω ) = iV , n ≤ V ≤ n+m / X tn −1 (ω ) = in−1 )
P( X (ω ) = i , n − 1 ≤ V ≤ n+m + 1) P( X (ω ) = i , n − 1 ≤ V ≤ n+m)
tV V tV V
= ⋅ =
P( X (ω ) = i , n − 1 ≤ V ≤ n+m)
tV V P( X (ω ) = i ) t n −1 n −1

P( X (ω ) = i , n − 1 ≤ V ≤ n+m + 1)
= P( X (ω ), n ≤ V ≤ n+m + 1 / X (ω ) = i )
tV V
=
P( X (ω ) = i )
tV t n −1 n −1
t n −1 n −1

Observaţie. Dacă ţinem seama de unele rezultate din teoria măsurii, se poate afirma că
valabilitatea relaţiei (**) pentru orice m≥0 este echivalentă cu următorul rezultat, mult mai
general:
Pentru orice M∈K(Xt; t>tn) are loc relaţia
P( M / X tV (ω ) = iV ,1 ≤ V ≤ n ) = P( M / X t n (ω ) = i ) ,
n
unde K(Xt; t>tn) este corpul borelian generat de variabilele aleatoare Xt, t>tn.

5.2. Probabilităţi de trecere

Să considerăm câmpul de probabilitate {Ω,K,P} şi şirul de variabile aleatoare (Xn)n∈N


definite pe acest câmp. Notăm cu K0 corpul borelian generat de variabilele aleatoare Xn, n∈N
ale şirului considerat. Evident că avem K0⊂K.
Dacă toate variabilele şirului sunt discrete, aşa cum am presupus iniţial, cu mulţimea
de stări I, atunci probabilităţile pe toate mulţimile din corpul K0 sunt determinate de
repartiţiile finit dimensionale

P(Xn(ω) = in, Xn-1(ω) = in-1,…,X0(ω) = i0),

pentru orice n∈N şi i0, i,…,in∈I.


Dar,

P(Xn(ω) = in, Xn-1(ω) = in-1,…,X0(ω) = i0) = P(X0(ω) = i0). P(X1(ω) =i1 / X0(ω)= i0). P(X2(ω) =
i2 / X1(ω) = i1, X0(ω) = i0) … P(Xn(ω) = in / Xn-1(ω) = in-1,…,X0(ω) = i0) = P(X0(ω) =
n
i0) ∏ P( Xt (ω ) = it / Xs(ω) = is, 1 ≤ s ≤ t-1)
t =1

Dacă acum (Xn)n∈N este un lanţ Markov, atunci:

119
n
P( Xt (ω ) = it ,0 ≤ t ≤ n) = P( X 0(ω ) = i 0)∏ P( Xt (ω ) = it / Xt − 1(ω ) = it − 1)
t =1

Vom numi probabilităţile P( Xt (ω ) = it / Xt − 1(ω ) = it − 1) probabilităţi de trecere la momentul t,


din starea it-1 în starea it şi le vom nota p(t;it-1,it), iar probabilităţile P( X 0(ω ) = i 0) = p i0 , i∈I
vor constitui repartiţia iniţială.
Atunci,
n
P( Xt (ω ) = it ,0 ≤ t ≤ n) = pi0 ∏ p(t; it −1 , it )
t =1

Definiţie. Un lanţ Markov spunem că este omogen sau cu probabilităţi de trecere staţionare,
dacă acestea nu depind explicit de timpul t:

p( t ; it − 1, it ) = pit −1it

Pentru un lanţ Markov omogen (cu probabilităţile de trecere staţionare) are loc relaţia:
n
P( Xt (ω ) = it ,0 ≤ t ≤ n) = pi0 ∏ pit −1it
t =1

Probabilităţile pit −1it constituie elementele unei matrici ∏ numită matricea de trecere
∏( p ) ij ( ij ) ∈ IxI .

Se constată imediat că: pi ≥ 0; ∑ p =1


i∈I
i

pij ≥ 0; ∑p
j ∈I
ij = 1 , (∀) i∈I;

aceste probabilităţi determină toate repartiţiile finit dimensionale P( Xt (ω ) = it ,0 ≤ t ≤ n) ,


n∈N şi, prin urmare, determină probabilitatea P pe câmpul borelian K0 generat de lanţul
Markov considerat. În felul acesta, probabilităţile iniţiale (pi)i∈I şi probabilităţile de trecere
(pij)i,j∈I formează o familie de cantităţi determinate pentru un lanţ Markov.
De aici urmează o altă definiţie a unui lanţ Markov, şi anume:

un lanţ Markov este un proces aleator (Xn)n∈N cu variabilele aleatoare discrete pentru care
există o mulţime de indici I, cel mult numărabilă, un şir (pi)i∈I şi o matrice (pij)i,j∈I verificând
condiţiile :
pi ≥ 0, i ∈ I , ∑ pi = 1; pij ≥ 0, i, j ∈ I ; ∑ pi j = 1
i∈I j ∈I

În acest mod, probabilităţile finit dimensionale sunt date de:

n
P( Xn(ω ) = in,..., X 0 = i0) = pio ∏ p( it − 1, it )
t =1

Fie (Xn)n∈N un lanţ Markov omogen (cu probabilităţi de trecere staţionare).

Definiţie. Vom spune că un lanţ Markov omogen este cu creşteri independente dacă
120
pij = qj-i, i,j∈I.

Exemplu de lanţ Markov cu creşteri independente:


Fie şirul de variabile aleatoare (Yn)n∈N definit în modul următor: Y0 = X0, Yn = Xn - Xn-1, n≥1.
Fie I mulţimea numărabilă de numere de forma j-i, i,j∈I astfel încât pij>0. Atunci I este
mulţimea valorilor posibile corespunzătoare şirului (Yn)n∈N.
Fie L mulţimea valorilor lui Y0. Pentru orice n ≥ 1, i0∈L, j0∈J, 1 ≤ ν ≤ n, avem:

⎛ n n

P( Yn = jn / Yν = jν ,0 ≤ ν ≤ n) = P⎜ Xn = ∑ js / Xν = ∑ js,0 ≤ ν ≤ n − 1⎟ =
⎝ s= 0 s= 0 ⎠
⎛ n n

= P⎜ Xn = ∑ js / Xn − 1 = ∑ js⎟ = qjn
⎝ s= 0 s= 0 ⎠
Rezultă că procesul (Yn)n∈N este un şir de variabile aleatoare independente, toate,
exceptând pe Y0, având o repartiţie comună dată de (qj)j∈J.
n
Prin urmare, Xn = ∑ Yν este suma a n+1 variabile aleatoare discrete, independente
ν =0
toate, afară de Y0, având aceeaşi repartiţie.
Reciproc, un astfel de proces (Yn)n∈N* este cu creşteri independente.

5.3. Probabilităţi de trecere după n paşi


Introducem probabilităţile de trecere după n paşi dintr-o stare i într-o stare j, pe care le
vom nota pij( n ) , n∈N.
⎧0, i ≠ j
Pentru n = 0, punem, prin definiţie: pij( 0 ) = δij = ⎨
⎩1, i = j
Pentru n = 1, punem pij(1) = pij , iar pentru n∈N arbirtar, punem:
(*) pij( n +1) ∑ pik( n ) p kj(1) ,
k ∈I
relaţie care este valabilă şi pentru n = 0.
Să demonstrăm următoarea propoziţie.

Propoziţie. Pentru orice h∈N, are loc relaţia Pik( n ) = P( Xh + n = j / Xh = i) .


Demonstraţie.
Pentru n = 1 relaţia se reduce la pik(1) = P( Xh + 1 = j / Xh = i) , care este tocmai relaţia de
definiţie a probabilităţilor de trecere. Presupunem relaţia adevărată pentru s ≤ n şi arătăm că
rămâne adevărată pentru s = n + 1, orice ar fi i,j∈I. Atunci:
P( Xh + n + 1 = j, Xh + n = k , Xh = i)
P( Xh + n + 1 = j / Xh = i) = ∑ P( Xh + n + 1 = j, Xh + n = k / Xh = i) = ∑ =
k ∈I k ∈I P( Xh = i)
P( Xh + n + 1 = j, Xh + n = k , Xh = i) P( Xh + n = k , Xh = i)
=∑ = ∑ P( Xh + n + 1 = j / Xh + n = k , Xh = i) ⋅
k ∈I P( Xh + n = k , Xh = i) P( Xh = i) k ∈I

⋅ P( Xh + n = k / Xh = i) = ∑ pik(n) pkj(1) = pij(n+1) ,


k ∈I

deci, în baza inducţiei după n, am demonstrat afirmaţia.

121
În baza acestei propoziţii este justificată denumirea de probabilitate de trecere din
starea i în starea j după n paşi a expresiei pij( n ) .
Probabilitatea absolută a variabilei Xn este dată de :

p (j n ) = P ( Xn = j ) = ∑ P( X 0 = i , Xn = j ) = ∑ P( X 0 = i ) P ( Xn = j / X 0 = i ) = ∑ pi pij( n )
i∈ I i∈ I i∈ I

Deci, p (j n ) = ∑ pi pij( n ) .
i∈ I

⎛ i ⎞
Fie (Xn)n≥0 un lanţ Markov omogen cu repartiţie iniţială X 0:⎜ i ∈ I ⎟ , pi = P(X0=i)
⎝ pi , ⎠
⎛ i ⎞
şi cu repartiţia la pasul n, Xn: ⎜ ( n ) i ∈ I ⎟ , p i( n ) = P( Xn = i ) .
⎝ pi , ⎠
Definiţie. Lanţul Markov (Xn)n≥0 se numeşte staţionar, dacă p i( n ) = pi , n∈N, i∈I.

Din p (j n ) = P( Xn = j ) = ∑ P( Xn = j , X 0 = i ) = ∑ P( X 0 = i)P( Xn = j / Xn = i) = ∑ pi pij( n )


j ∈I j ∈I i∈I

rezultă că, dacă lanţul este staţionar, atunci:

p (j n ) = p j şi, deci, p j = ∑ Pi Pij( n ) , (∀) j∈I, n∈N.


i∈I

În particular, pentru n = 1 avem: p j = ∑ pi pij , (∀) j∈I.


i ∈I

Probabilităţile de trecere după n paşi verifică relaţia generală dată de propoziţia de mai
jos:

Propoziţie. Pentru orice n, m∈N, are loc relaţia pij( n + m ) = ∑ pik( n ) p kj( m ) .
k ∈I
Demonstraţie.
Facem inducţie după m.
Pentru m = 0 relaţia este: pij( n + 0 ) = p ij( n ) = ∑ p ik( n ) p kj( 0 ) = ∑ p ik( n )δ kj = p ij( n ) .
k ∈I k ∈I

Presupunem că relaţia este adevărată pentru s ≤ m dat şi orice n∈N, i,j∈I şi să arătăm că este
adevărată pentru s = m+1:

⎛ ⎞ ⎛ ⎞
pij( n + m+1) = ∑ pik( n+ m) p kj(1) = ∑ ⎜ ∑ pil( n ) plk( m) ⎟ p kj(1) = ∑ pil( n ) ⎜ ∑ plk( m) p kj(1) ⎟ = ∑ pil( n ) plj( m+1)
k ∈I k ∈ I ⎝ l∈ I ⎠ l∈ I ⎝k∈I ⎠ l∈ I

Relaţia demonstrată, pij( n + m ) = ∑ pik( n ) p kj( m ) (**)


k ∈I
este cunoscută sub numele de relaţia Chapman-Kolmogorov.
Tot sub acelaşi nume este cunoscută şi relaţia
(*) pij( n +1) = ∑ pik( n ) p kj(1)
k∈I

122
Evident că relaţia (**) este o generalizare a relaţiei (*) şi ea uşurează calculul
probabilităţilor pij( n ) dacă n este mare. Totodată ele sugerează utilizarea matricilor în calculul
probabilităţilor de trecere după n paşi, pij( n ) .
O matrice A = (aij)i,j∈N de ordin finit sau numărabil, ale cărei elemente au proprietăţile
aij ≥ 0, ∑ aij = 1 spunem că este o matrice stochastică. Dacă A = (aij)i,j∈I şi B = (bij)i,j∈I sunt
j ∈I

matrici stochastice, atunci C = A⋅B are sens, C = (cij)i,j∈I , cij = ∑ aikbkj , iar C este o matrice
j ∈I

⎛ ⎞ ⎛ ⎞
stochastică, deoarece cij ≥ 0 (evident) şi ∑ c = ∑ ⎜⎝ ∑ a b ⎟⎠ = ∑ a ⎜⎝ ∑ b ⎟⎠ = ∑ a
j ∈I
ij
j ∈I k ∈I
ik kj
k ∈I
ik
j ∈I
kj
k ∈I
ik = 1.

Din rezultatele prezentate, urmează că matricea de trecere a unui lanţ Markov omogen
este o matrice stochastică şi reciproc, orice matrice stochastică este matricea de trecere a unui
lanţ Markov omogen cu o repartiţie dată.
Relaţia Chapman-Kolmogorov pune în evidenţă faptul că probabilităţile pij( n +1) sunt

∏ =∏ ∏ = ∏ o vom numi matrice de trecere


( n +1) n +1 (n) n
elementele matricii . Matricea

după n paşi, care evident este puterea a n-a a matricii de trecere ∏ .


Probabilităţile pij( n ) , n∈N constituie un şir pentru fiecare i,j∈I şi vom urmări să
studiem comportarea lor asimptomatică. În cele ce urmează vom presupune că I este o
mulţime finită.

Definiţie. Un lanţ Markov se numeşte ergodic dacă pentru orice pereche de stări i,j∈I există
limita p ∞j = lim p ij( n ) independentă de i şi ∑ p (j ∞ ) = 1 .
n →∞
j ∈I

Teorema ergodică ce urmează, precum şi consecinţele ei, se referă la comportarea


asimptomatică a probabilităţilor pij( n ) .

5.4. Teorema ergodică. Şirul( n )( pn∈N
ij )converge către o limită p j , j∈I oricare ar fi i∈I, când

n→∞, dacă şi numai dacă există un număr natural s >0 şi o stare h∈I astfel încât:
pih( s ) >0, (∀) i ∈I.
Demonstraţie.
Necesitatea: din p ∞j = lim p ij( n ) rezultă ∑ p (j ∞ ) = 1 şi, deci, există un h∈I astfel încât
n →∞
j ∈I
∞ ∞ ( s)
p >0. Dar, din definiţia lui p rezultă p >0 oricare ar fi i∈I, dacă s este suficient de mare.
h h ih

Suficienţa: pentru orice j∈I considerăm şirurile ( p (j n ) )n∈N şi ( p ( n ) )n∈N , unde


j

p (n)
j = sup p (n)
ij , p j = inf p
(n) (n)
ij şi arătăm mai întâi că ( p (n)
j )
n∈N este necrescător, iar ( p ( n ) )n∈N
i∈I i∈I j

este nedescrescător.
Într-adevăr, pij( n +1) = ∑ pik(1) p kj( n ) ≤ p (j n ) ∑ pik(1) = p (j n ) oricare ar fi i,j∈I şi, deci,
k∈I k∈I

sup pij( n +1) = p (j n +1) ≤ p (j n ) , oricare ar fi n∈N; analog, p (jn +1) ≥ p (jn ) , oricare ar fi n∈N.
i∈ I

123
Însă, 0 ≥ p ( n ) , p (j n ) ≤ 1, adică ( p (j n ) )n∈N şi ( p ( n ) )n∈N sunt monotone şi mărginite, deci
j j

convergente şi fie p ∞j , p ∞j limitele lor, respectiv. Dacă reuşim să arătăm că

lim sup p ij( n ) − p lj( n ) = 0 , rezultă că p ∞ = p ∞j = p ∞j , j∈I.


n→∞ i , l ∈I j

Să evaluăm maximul diferenţei pij( n ) − plj( n ) , i,j,l∈I. Să presupunem că n > s. Atunci, pe


baza relaţiei lui Chapman-Kolmogorov, pij( n ) = ∑ pir( s ) prj( n − s ) , putem scrie:
r ∈I

pij( n ) − plj( n ) = ∑ pir( s ) prj( n − s ) − ∑ plr( s ) prj( n − s ) = ∑ ( pir( s ) − plr( n − s ) ) prj( n − s ) = ∑ bil ( r ) prj( n − s )
r ∈I r ∈I r ∈I r ∈I

unde am pus pi(rs ) − p lr( s ) = bil (r ) .

Fie acum I+ = {r∈I / bil(r) > 0}


I- = {r∈I / bil(r) ≤ 0}
I+ ∪ I - = I
Cum
∑p (s)
ir = ∑ p lr( s ) = 1 , rezultă că ∑b il (r ) = ∑b il (r ) + ∑b il ( r ) = 0 şi, de aici,
r ∈I r ∈I r ∈I r ∈I + r ∈I −

γ il = ∑b il (r ) = ∑b il (r )
r ∈I + r ∈I −

Să arătăm că 0 ≤ γil ≤ 1. Să presupunem că indicele h care apare în enunţul teoremei


aparţine lui I+. Atunci,

γ il = ∑b +
il (r ) = ∑p +
( s)
ir − ∑p +
( s)
lr ≤ ∑ pir( s ) − ∑p +
( s)
lr = 1− ∑p +
( s)
lr ≤ 1 − p ( s ) . Deci,
h
r∈I r∈I r∈I r∈I r∈ I r∈I

0 ≤ γil ≤ 1- ph( s ) < 1, deoarece p (hs ) = inf p ih( s ) > 0 .


i∈I

În mod analog, pentru h∈I obţinem aceeaşi evaluare.


Fie acum γ = sup γ il . Deoarece I este o mulţime finită, rezultă 0 ≤ γ < 1. Atunci, pentru γil >0
i ,l ∈I

putem scrie:
⎛ ⎞
pij( n ) − plj( n ) = ∑b il ( r ) prj( n − s ) − ∑ bil ( r ) prj( n − s ) ≤ ⎜ max prj( n − s ) ∑ bil ( r ) − min prj( n − s ) ∑ bil ( r ) ⎟ ≤
⎝ r ∈I r ∈I ⎠
r ∈I + r ∈I − r ∈I + r ∈I −

( ) (
≤ γ il max prj( n − s ) − min prj( n − s ) ≤ γ il p (j n − s ) − p (jn − s ) ≤ γ p (j n − s ) − p (jn − s )
r ∈I r ∈I
) ( )
⎡n⎤
De aici urmează că p (j n ) − p (jn ) ≤ γ ⎜⎛⎝ p (j n − s ) − p (jn − s ) ⎟⎞⎠ . Aplicând această relaţie de ⎢ ⎥ ori,
⎣s⎦
obţinem:
⎡n⎤ ⎛ ⎛⎜ n − ⎡⎢ n ⎤⎥ s⎞⎟ ⎜ n− s⎟ ⎞
⎛ ⎡n⎤ ⎞ ⎡n⎤

0≤ p (n)
− pj ≤γ (n) ⎢s⎥
⎣ ⎦ ⎜ p ⎝ ⎣ s ⎦ ⎠ − p ⎝ ⎢⎣ s ⎥⎦ ⎠ ⎟ ≤ γ ⎢⎣ s ⎥⎦ ,
j ⎜ j j ⎟
⎝ ⎠

124
⎡n⎤
⎢ ⎥
întrucât p (j n ) − p ( n ) ≤ 1 . Atunci, sup pij( n ) − plj( n ) = p (j n ) − p (jn ) ≤ γ ⎣ s ⎦ .
j
i ,l ∈ I

⎡n⎤
Dacă n→∞ rezultă că şi ⎢⎣ s ⎥⎦ →∞. Prin urmare, lim sup pij( n ) − plj( n ) = 0 , adică
n →∞ i ,l ∈ I

lim p (n)
ij = p , j∈I, oricare ar fi i∈I.
j
n →∞

Din cele de mai sus rezultă: ∑p


j ∈I

j = lim ∑ pij( n ) = 1 .
n→∞
j ∈I

Din această teoremă rezultă acum unele consecinţe utile în aplicaţii.

Consecinţă. Are loc relaţia:

∑p
j ∈I

j p (jkm ) = p k∞ , k∈I, m∈N.

Demonstraţie.
Dacă în relaţia Chapman-Kolmogorov, ∑p
r ∈I
(n)
ij p (jkm ) = p ik( m+ n ) , facem n→∞, se obţine

rezultatul menţionat.

Consecinţă. p ∞j > 0 , j∈I dacă şi numai dacă începând cu un s suficient de mare, elementele


( s)
matricei sunt toate strict pozitive.

1
Consecinţă. p ∞j =
m
, j∈I dacă şi numai dacă ∑p
i∈I
ij = 1 , oricare ar fi i∈I, m fiind numărul

elementelor mulţimii I.

Demonstraţie.
Din condiţia dată rezultă că ∑p
i ∈I
(n)
ij
= 1 , n > 1 şi, deci, lim ∑ p (ijn ) = mp ∞j = 1 adică
n →∞
i ∈I

1
p ∞j = , j∈I (card I = m).
m
1
Reciproc, dacă p ∞j = , j∈I atunci, în baza primei consecinţe, putem scrie
m
∑p
j ∈I

i pij(1) = p ∞j , din care rezultă afirmaţia.

5.5. Exemple de lanţuri Markov omogene.

Exemplu. Să considerăm r urne numerotate 1,2,…,r care conţin fiecare bile de r tipuri
diferite, marcate de asemenea, 1,2,…,r. Probabilitatea de a extrage o bilă de tipul j din urna i
este egală cu pij, i,j = 1,2,…,r. La momentul iniţial se alege o urnă conform repartiţiei de
probabilitate (pi)1≤i≤r.

125
Din această urnă se extrage o bilă care se reintroduce apoi la loc. Dacă bila extrasă a
fost de tipul i, atunci extragerea următoare se va face din urna i ş.a.m.d.
Este evident că şirul tipurilor de bile extrase succesiv este un lanţ Markov cu mulţimea
stărilor I = {1,2,…,r}, probabilităţile iniţiale (pi)1≤i≤r şi probabilităţile de trecere (pij)1≤i, j≤r.

Exemplu. Problema ruinării jucătorului.


Două persoane sunt angajate într-o serie de partide ale unui aceluiaşi joc, capitalurile
lor iniţiale fiind k şi l-k unităţi. Presupunem că la fiecare partidă se pariază pe o singură
unitate de capital, că probabilităţile de câştig al unei partide de către cei doi jucători sunt p şi
q = 1 - p şi că rezultatele partidelor sunt independente. Repartizarea capitalului total l între cei
doi jucători va evolua neîncetat până ce unul dintre ei va pierde ultima sa unitate de capital
(se va ruina). Ne întrebăm care sunt probabilităţile de ruinare a celor doi jucători.
Evoluţia capitalului primului jucător, de exemplu, poate fi reprezentată de un lanţ
Markov având mulţimea stărilor I = {0,1,…,l}, care pleacă din starea k şi cu matricea de
trecere

0 1 2 3 ... l − 2 l − 1 l
0 1 0 0 0 0 0 0
1 q 0 p 0 0 0 0
2 0 q 0 p 0 0 0
...
l −1 0 0 0 0 q 0 p
l 0 0 0 0 0 0 1

Într-adevăr, dacă la un moment dat capitalul primului jucător este i unităţi, i≠0,l,
atunci, independent de evoluţia anterioară a acestuia, la momentul următor, el poate avea i+l
unităţi sau i-l unităţi cu probabilităţile p, respectiv q.
Dacă i = 0 (ceea ce corespunde ruinării primului jucător) sau i = l (ceea ce corespunde
ruinării adversarului său), toate tranziţiile ulterioare (fictive din punct de vedere al problemei)
nu pot schimba valoarea capitalului, adică p(0,0) = p(l,l) = 1.
Stările 0 şi l se numesc stări absorbante deoarece odată atinse ele nu mai pot fi
părăsite.

Exemplu. Un model din teoria aşteptării.


O staţie de servire poate servi clienţii la momentele 0,1,2,…. Vom presupune că în
intervalul de timp (n,n+1) sosesc Yn clienţi, variabilele Y0,Y1,Y2,… fiind presupuse
independente şi identic reaprtizate, cu repartiţia iniţială P(Y0 = k) = pk, k ≥ 0 şi că există loc
de aşteptare pentru cel mult m clineţi, număr în care se include şi clientul care este servit.
Clienţii care, ajungând la staţie, găsesc m clienţi aşteptând, pleacă (fără a fi serviţi) şi nu se
mai întorc. Să notăm cu X(n) numărul clienţilor prezenţi la momentul n, număr în care se
include şi clientul care este în curs de servire. Vom arăta că (X(n))n≥0 este un lanţ Markov cu
stările 0,1,2,…,m.
Numărul clienţilor prezenţi la momentul n+1 este egal cu numărul clienţilor prezenţi
la momentul n, mai puţin cel servit la momentul n (dacă acesta există), plus numărul clienţilor
care sosesc în intervalul (n,n+1) dacă rezultatul acestei însumări nu depăşeşte m şi este egal
cu m în caz contrar. Prin urmare,

126
⎧ X(n) − 1 + Yn , dacă 1 ≤ X(n) ≤ m

X(n + 1) = ⎨ Yn , dacă 0 ≤ Yn ≤ m + 1- X(n) sau X(n) = 0, 0 ≤ Yn ≤ m -1
⎪m , î n restul situaţiilor

care mai poate fi scrisă


X(n+1) = min {X(n) + δ(0,X(n)) - 1 + Yn, m},

⎧1, dacă X(n) = 0


unde δ ( 0, X ( n )) = ⎨
⎩0, dacă X(n) ≠ 0

Deoarece X(n+1) depinde numai de X(n) şi Yn, iar din definiţia variabilei Yn rezultă
că aceasta este independentă de X(n), se observă că (X(n))n≥0 este un lanţ Markov. Se pune
problema de a determina matricea de trecere a lanţului Markov definit mai sus.

Notând P1 = pl + pl+1 + … 1≤ l ≤ m, vom avea:

p(0,j) = P(X(n+1) = j / X(n) = 0) = P(Yn = j / X(n) = 0) = pj, dacă 0 ≤ j ≤m-1


P(Yn ≥ m) = pm + pm+1 + … = Pm , dacă j = m

iar pentru 1 ≤ i ≤ m,

⎧ p (i, j ) = P ( X ( n + 1) = j / X ( n ) = i )
⎪ P (Yn = j + 1 − i ) = pj − i + 1 , dacă i- j ≤ j ≤ m -1

⎨ P (Yn ≥ m + 1 − i ) = Pm + 1 − i , dacă j= m
⎪0 , î n celelalte cazuri

Prin urmare, matricea de trecere este:

0 1 2 ... m −1 m
0 P0 P1 P2 Pm − 1 Pm
1 P0 P1 P2 Pm − 1 Pm
2 0 P0 P1 Pm − 2 Pm − 1
...
m −1 0 0 0 P1 P2
m 0 0 0 P0 P1

Exemplu. Aplicaţie în gestiunea stocurilor cu cerere aleatoare.


Un depozit care desface un anumit produs are capacitatea S = 5 unităţi. Cererea
săptămânală U din acel produs este aleatoare şi are următoarea repartiţie:

⎛ 0 1 2 3 4 5 6 ⎞
U: ⎜ ⎟
⎝ 0.05 015
. 0.20 0.30 0.20 0.08 0.02⎠

127
Presupunem că cererea dintr-o săptămână este independentă de cea a celorlalte
săptămâni . Să notăm cu Yn cererea din săptămâna a n-a. Depozitul foloseşte următoarea
politică de tip (s,S): dacă la sfârşitul unei săptămâni cantitatea disponibilă este de cel puţin s,
nu comandă nimic, dar dacă la sfârşitul săptămânii cantitatea disponibilă este inferioară lui s,
se lansează o comandă suficientă pentru ca stocul să fie adus la nivelul S. Cantitatea
comandată este livrată imediat de un depozit central. Cheltuielile de stocare sunt de C1 lei pe
unitatea de produs (se ia în considerare cantitatea existentă în stoc la sfârşitul săptămânii).
Dacă o cerere nu poate fi satisfăcută integral, se livrează întreaga cantitate existentă în depozit
şi se plătesc C2 lei penalizări (valoarea penalizării nu depinde de cererea rămasă neacoperită).
O cerere care nu poate fi satisfăcută este anulată.
Valoarea lui s poate fi de 2 sau 3 unităţi.
Care dintre aceste valori trebuie preferată dacă C2 = 10C1 ?
Soluţie.
Notăm cu Xn cantitatea existentă în depozit la sfârşitul săptămânii a n-a. Să observăm
că Xn poate lua valorile 0 în două situaţii: fie când cererea este egală cu cantitatea existentă în
depozit (şi în acest caz nu se plătesc penalizări, iar cheltuielile de stocare sunt nule), fie când
cererea depăşeşte disponibilul (cheltuielile de stocare sunt nule, dar se plătesc penalizări).
Pentru a face deosebire, în cea de-a doua situaţie, vom atribui lui Xn o valoare specială, să
zicem θ, care se deosebeşte de starea Xn=0, prin faptul că implică penalizări.
La începutul săptămânii a (n+1)-a nivelul stocului este fie S, dacă Xn<s (în particular
dacă Xn=0 sau Xn=θ), fie Xn dacă Xn≥s (în acest caz nu s-a lansat nici o comandă depozitului
central).
Vom avea, deci

⎧ Xn − Yn , dacă Yn ≤ Xn ş i Xn ≥ s

Xn + 1 = ⎨S − Yn , dacă Yn ≤ S ş i Xn < s
⎪θ , dacă Yn > Xn ≥ s sau Yn > s

Rezultă că (Xn)n≥0 formează un lanţ Markov cu probabilităţile de trecere:




⎪P(U = i - j) , dacă 0 ≤ j < i ş i i ≥ s

P(Xn + 1 = j / Xn = i ) = ⎨P(U > i) , j =θ şi i ≥ s
⎪P(U = S - j) , j ≤S şi i < s

⎪P(U > S) , dacă j = θ ş i i < s
⎪⎩0 , în rest

Să analizăm cazul s = 2, apoi cazul s = 3.

Pentru s = 2 matricea probabilităţilor de trecere va fi următoarea:

128
θ0 1 2 3 4 5
θ 0,02 0,08 0,20 0,30 0,20 0,15 0,05
0 0,02 0,08 0,20 0,30 0,20 0,15 0,05
1 0,02 0,08 0,20 0,30 0,20 0,15 0,05
P( s= 2 ) = 0,60 0,20 0,15 0,05 0 0 0
3 0,30 0,30 0,20 0,15 0,05 0 0
4 0,10 0,20 0,30 0,20 0,15 0,05 0
5 0,02 0,08 0,20 0,30 0,20 0,15 0,05

De exemplu, dacă Xn = 2, nu se lansează nici o comandă de aprovizionare, s fiind 2 şi


se vor plăti penalizări îndată ce U ia o valoare mai mare ca 2:

6
P(U > 2) = ∑ P(U = k ) = 0,6 , deci, P2θ = 0,60
k =3

Dacă Xn = 1, atunci cantitatea în stoc la începutul săptămânii a (n+1)-a este S = 5 şi,


deci, se vor plăti penalizări numai dacă U = 6; P1θ = P(U=6) = 0,02.
În mod analog se obţin şi celelalte probabilităţi de trecere.
Rezolvând sistemul

vj = ∑v p
j ∈C
i ij

, j∈C={θ,0,1,2,3,4,5},
∑π = 1 (u = cπ )
j∈C
j i i

se obţine:
πθ=19,00%; π0=14,58%; π1=19,80%, π2=21,70%, π3=13,23%, π4=8,87%, π5=2,81%

Rezultă că se vor plăti penalizări, în medie în 19% din cazuri, iar cheltuielile medii de stocare
vor fi:

⎛ 5 ⎞
⎜ ∑ kπk ⎟ C1 = (1⋅0,1980 + 2⋅0,2170 + 3⋅0,1323 + 4⋅0,0887 + 5⋅0,0281)C1 u.m.
⎝ k =1 ⎠

Cheltuielile medii totale vor fi (pentru s = 2):

Γ(s=2) = 0,19C2 + 1,5244C1 = (0,19⋅10 + 1,5244)C1 = 3,4244C1

Refăcând calculele pentru s = 3, se obţin:

πθ=7,64%; π0=13,08%; π1=21,13%, π2=26,33%, π3=16,90%, π4=11,33%, π5=3,58%.

Cheltuielile medii de stocare vor fi, în acest caz,

⎛ 5 ⎞
⎜ ∑ kπk ⎟ C1 = (1⋅0,2113 + 2⋅0,2633 + 3⋅0,1690 + 4⋅0,1133 + 5⋅0,0358)C1 = 1,8771 C1.
⎝ k =1 ⎠

Cheltuielile medii totale vor fi:


129
Γ(S=3) = 0,0764C2 + 1,8771C1 = (0,076Y⋅10 + 1,8771)C1 = 2,6411C1

Comparând Γ(s=2) cu Γ(s=3) constatăm că este mai avantajos să se ia s=3 unităţi disponibile
la sfârşitul săptămânii.

5.6. Procese Markov ce depind de un parametru continuu


Noţiuni generale.
În multe situaţii concrete din ştiinţele naturii, întâlnim procese în care cunoaşterea
unei stări a sistemului la un moment t0 nu determină în mod min. stările sistemului în
următoarele momente de timp, ci determină doar probabilitatea ca sistemul să ajungă într-una
din stările unei mulţimi de stări ale sistemului.
Dacă notăm cu x∈R starea sistemului la momentul t (unde t este un parametru
continuu care are semnificaţia de timp) şi cu A⊂R o mulţime de stări ale sistemului, atunci
pentru aceste procese X(t) este definită probabilitatea de trecere p(t,x;τ,A) ca sistemul să
treacă într-o stare din mulţimea A la momentul τ > t după ce s-a aflat la momentul t în starea
x.
Dacă cunoaşterea stărilor sistemului pentru momentul t > τ nu modifică aceste
probabilităţi, vom numi aceste procese - procese fără postacţiune sau, prin analogie cu cele în
timp discret, procese de tip Markov.
Probabilitatea de trecere p(t,x;τ,A) şi o probabilitate iniţială P(A) caracterizează
complet aceste procese de tip Markov.
În cazul în care în probabilitatea de trecere p(t,x,τ,A) mulţimea A⊂R este de forma
(-∞,y), obţinem repartiţii de trecere F(t,x,τ,y) = P(X(τ) < y / X(t) = x). Cu alte cuvinte,
repartiţia de trecere F(t,x,τ,y) reprezintă probabilitatea ca la momentul τ procesul aleator
corespunzător să ia o valoare mai mică decât y, ştiind că la momentul t (cu t < τ) a avut loc
egalitatea X(t) = x.
Vom presupune că funcţia F(t,x,τ,y) definită pentru τ > t se bucură de proprietăţile:

(i) este o funcţie de repartiţie în raport cu y


(ii) este continuă în raport cu t şi τ
(iii) este integrabilă în raport cu x
(iv) au loc egalităţile:
⎧1 , dacã x = y
lim F ( t , x; τ , y ) = lim F (t , x; τ , y ) = δ (x, y ) = ⎨
τ →t+0 τ →t− 0 ⎩ 0 , dacã x ≠ y

Toate aceste condiţii puse funcţiei de repartiţie de trecere F(t,x;τ,y) se transcriu


imediat pentru probabilitatea de trecere p(t,x;τ,A).
Să considerăm acum o mulţime A∈K şi o variabilă aleatoare cu funcţia de repartiţie
G(z) = P(Y < z). Ştim atunci că are loc relaţia: P ( A) = ∫ P ( A / Y (ω ) = z ) dG ( z ) .
R
Dacă B∈K, atunci

(1) P ( A / B ) = ∫ P ( A / B ∩ {Y (ω ) = z}) dGB ( z ) , unde GB(z) = P(Y < z / B)


R

Ţinând seama de aceste relaţii, să luăm acum momentele de timp t, s, τ; t < s < τ şi să
punem:
A = {X(t) < y}, B = {X(t) = x}; Y(ω) = X(s,ω)

130
Aplicând relaţia (1), obţinem:

P( X (τ ) < y / X ( t ) = x ) = ∫ P( X (τ ) < y / X ( t ) = x, ) X ( s) = z )dzP( X ( s ) < z / X ( t ) = x )


R

Luând în consideraţie faptul că procesul este de tip Markov, atunci:

P(X(τ) < y / X(t) = x, X(s) = z) = P(X(τ) < y / X(s) = z) = F(s,z; τ,y)

Deci, relaţia (1) devine:

(2) F(t,x; τ,y) = ∫ F ( s, z; τ , y )dzF ( t , x; s, z )


R

Această relaţie constituie generalizarea naturală a relaţiei lui Chapman - Kolmogorov,


deoarece reprezintă extensiunea relaţiei stabilită pentru procesele de tip Markov.

Dacă există o densitate de trecere f(t,x; τ,y)= F ( t , x; τ , y ) atunci:
∂y

F(t,x; τ,y) = ∫ f ( t , x; τ , z )dz; ∫ f ( t , x; τ , z )dz = 1


−∞ R

şi relaţia Chapman-Kolmogorov devine:

(3) f(t,x; τ,y) = ∫ f ( s, z;τ , y)dz ⋅ f (t , x; s, z)dz


R

Dacă procesul este staţionar, atunci funcţia de repartiţie de trecere depinde numai de
intervalul de timp scurs:
F(t,x; τ,y) = G(τ-t,x,⋅y)
iar relaţiile (2) şi (3) devin:

G(t1+t2; x,y) = ∫ G(t ; z, y )dzG( t ; x, z )


R
1 2

g(t1+t2;x,y) = ∫ g(t ; z, y ) g(t ; x, z )dz


R
1 2

Definiţie. Spunem că procesul X(t) este aditiv (sau cu creşteri independente) dacă
F(t,x; τ,y) depinde de t τ şi x-y.

5.7. Procese Poisson

Cel mai simplu caz de proces Markov îl constituie procesul Poisson.


Să considerăm un proces Markov {X(t)} omogen şi aditiv şi să presupunem că diferenţa
Xt - Xs este un întreg nenegativ pentru orice valori s < t şi, în plus, că

P( X t + ∆t − X t > 1)
lim =0
t + ∆t − X t = 1)
∆t → 0 P( X

131
Prin definiţie, un proces {X(t)} cu proprietăţile menţionate se numeşte proces Poisson
omogen.
Dacă notăm P(Xt -Xs = n) = Pn(t - s), atunci are loc următoarea teoremă.
Teoremă. Dacă {X(t)} este un proces Poisson omogen, atunci există o constantă λ>0 astfel
− λt ( λ t )
n
încât Pn( t ) = e , n = 0,1,2,…
n!

Demonstraţie. Din proprietatea de aditivitate a procesului rezultă că variabilele Xυ+t - Xυ şi


Xυ+t+s - Xυ+t sunt independente dacă t,s > 0 (t+s>t) şi, deci,

P(Xυ+t+s - Xυ= 0) = P (Xυ+t+s - Xυ+t + Xt+υ - Xυ = 0) = P(Xυ+t+s - Xυ+t = 0, Xυ+t - Xυ = 0) =


= P(Xυ+t+s - Xυ+t = 0) P(Xυ+t - Xυ = 0),

sau, altfel scris,


P0(t+s) = P0(s) P0(t)

Dacă luăm s = ∆t, atunci P0(t+∆t) = P0(∆t) P0(t)

Scăzând din ambii membri P0(t) şi împărţind cu ∆t, obţinem:

P0 ( t + ∆t ) − P0 ( t ) 1 − P0 ( t ) P ( 0) − P0 ( ∆t )
= − P0 ( t ) = − P0 ( t ) 0
∆t ∆t ∆t

Trecând la limită pentru ∆t → 0, se obţine: P0’(t) = -P0(t) P0’(0)

Fie P0’(0) = λ > 0. Atunci, integrând ecuaţia P0’(t) = - λP0(t), se obţine P0(t) = ce- λt,
iar din P0(0) = 1 rezultă c = 1, adică P0(t) = e- λt.
Pentru determinarea probabiltăţii Pk(t), k = 1,2,… să exprimăm Pk(t+ ∆t ).
Dacă în intervalul (0,t+ ∆t ) s-au produs şi schimbări de stare, acestea s-au produs în felul
următor:
(i) în intervalul (0,t) s-au produs k schimbări, iar în intervalul (t,t+ ∆t ) nici una;
(ii) în intervalul (0,t) s-au produs k-1 schimbări, iar în intervalul (t,t+ ∆t ) una singură;
(iii) în intervalul (0,t) s-au produs cel mult k-2 schimbări, iar în intervalul (t,t+ ∆t ) cel puţin
două.

Evenimentele menţionate fiind independente, obţinem:

Pk(t+ ∆t )=Pk(t) P0( ∆t )+Pk-1(t) P1( ∆t )+R,


unde R = Pk-2(t) P2( ∆t )+Pk-3(t) P3( ∆t )+… ≤ ∑ Pk ( ∆t ) .
k =2
Scăzând din ambii membri Pk(t) şi împărţind cu ∆t obţinem:

132
Pk (t + ∆t ) − Pk (t ) [1 − P0 ( ∆t )] P1 ( ∆t ) R
= − P k (t ) + Pk −1 (t ) +
∆t ∆t ∆t ∆t
(
1 − P0 ∆t ) 1− e − λ∆t

(1) = ∆t → 0 → λ
⎯⎯⎯
∆t ∆t
P1 ( ∆t ) P1 ( ∆t ) 1 − P0 ( ∆t )
= ⎯⎯⎯∆t → 0 → 1 ⋅ λ
∆t 1 − P0 ( ∆t ) ∆t

R
Dacă arătăm că lim = 0 , atunci membrul doi are o limită finită, deci şi membrul
∆t
∆t → 0

dPk ( t ) R
întâi, care va fi = Pk '( t ) . Pentru a arăta că lim = 0 este suficient să arătăm că
dt ∆t → 0 ∆t

1 ∞ 1 − P0 ( ∆t ) − P1 ( ∆t )
lim
∆t → 0 ∆t

k=2
Pk ( ∆t ) = lim
∆t → 0 ∆t
=0

Însă
1 − P0 ( ∆t ) − P1 ( ∆t ) 1 − P0 ( ∆t ) − P1 ( ∆t ) P1 ( ∆t ) 1 − P0 ( ∆t )
=
∆t P1 ( ∆t ) 1 − P0 ( ∆t ) ∆t

P( X t + ∆t − X t > 1) 1 − P0 ( ∆t ) − P1 ( ∆t )
Condiţia lim = 0 este echivalentă cu lim = 0.
t + ∆t − X t = 1) P1 ( ∆t )
∆t → 0 P( X ∆t → 0

P1 ( ∆t )
Pe de altă parte, ţinând seama că P0(t) = e-λt , avem lim = 1 şi
∆t → 0 1 − P ( ∆t )
0

1 − P0 ( ∆t )

k =2
Pk ( ∆t )
lim = λ . Deci, lim = 0.
∆t → 0 ∆t ∆t → 0 ∆t

Pk ( ∆t ) − Pk ( 0)
În plus, deoarece Pk(0) = 0, rezultă lim = Pk '( 0) = 0 , k = 2,3,….
∆t → 0 ∆t

Ţinând seama de rezultatele obţinute anterior, rezultă că, dacă în relaţia (1) facem pe ∆t→0,
se obţine:

(2) Pk’(t) = -λPk(t) + λPk-1(t), k=1,2,3,…

Pentru integrarea acestui sistem de ecuaţii diferenţiale, introducem o funcţie auxiliară:


Lk(t) = Pk(t)eλt, k = 0,1,2,…
Urmează că:
Pk(t) = Lk(t)e-λt şi Pk’(t) = Lk’(t)e-λt-λLk(t)e-λt

Înlocuind în sistemul (2), obţinem:

Lk’(t)e-λt-λLk(t)e-λt = -λLk(t)e-λt + λLk-1(t)e-λt,

adică
Lk’(t) = λLk-1(t), k = 1,2,3,…
133
Cum P0(t) = e-λt, rezultă L0(t) = 1 şi
t

L1 (t ) = λ ∫ L0 ( u)du = λt
0
t
( λt ) 2
L2 (t ) = λ ∫ L1 ( u)du =
0 2!
...
t
( λt ) k
Lk (t ) = λ ∫ Lk −1 ( u)du = ,
0 k!
care, prin inducţie, se dovedeşte adevărată pentru orice k∈N.
( λ t ) k − λt
Înlocuind Lk(t) se obţine Pk ( t ) = e , k = 0,1,2,3,…, ceea ce era de
k!
demonstrat.

Proprietăţi ale proceselor Poisson


Se obţine imediat că: ∑ P (t ) = 1.
k =0
k

Într-adevăr,
∞ ∞
( λt ) k
∑ P (t ) = e
k =0
k
− λt

k =0 k!
= e − λt e λ t = 1

Propoziţie. Dacă {Xt} este un proces Poisson omogen şi aditiv, atunci

1
M ( X t ) = λt , D 2 ( X t ) = λt , ρ X t , X t + s =
s
1+
t

Demonstraţie.

( λt ) k
∞ ∞
( λt ) k −1
M ( X t ) = ∑ kPk ( t ) = e ∑ k − λt
= λte ∑ − λt
= λte − λt e λt = λt
k =0 k =0 k! k =1 ( k − 1)!
∞ ∞
( λt ) k −1 ∞
( λt ) k − 1
M 2 ( X t ) = ∑ k 2 Pk (t ) = λte − λt ∑ k = λte − λt ∑ [( k − 1) + 1] =
k =0 k =1 ( k − 1)! k =1 ( k − 1)!
⎡ ∞ (λt ) k − 2 ∞
( λt ) k − 1 ⎤
= λte − λt ⎢λt ∑ +∑ ⎥ = λte [ λte + e ] = (λt ) + λt
− λt λt λt 2

⎣ k = 2 ( k − 2)! k =1 ( k − 1)! ⎦
De aici rezultă: D2(Xt) = λt.
Să calculăm cov (Xt,Xt+s) = M(Xt Xt+s) - M(Xt) M(Xt+s)

M(Xt Xt+s) = M(Xt Xt+s - Xt2+Xt2) = M(Xt2) + M[Xt(Xt+s - Xt)] = (λt)2 + λt + M(Xt)M(Xt+s -
- Xt) = (λt)2 + λt + λt λs

Urmează că:

134
M ( X t X t+s ) − M ( X t ) M ( X t +s ) (λt ) 2 + λt + λ 2 ts − λtλ (t + s) λt
ρ X ,X = = = =
t t+s 2 2
D ( X t )D ( X t+s ) λtλ ( t + s) λ t ( t + s)
2

1
=
s
1+
t

Teoremă. Dacă {Xt}, {Yt} sunt două procese Poisson omogene independente cu parametrii λ
respectiv µ, atunci {Xt+Yt} este tot un proces Poisson omogen, cu parametrul λ+µ.
Demonstraţie. Să notăm Zt = Xt + Yt. Atunci,
n
P( Z n+ t − Z n = n) = P ( X n+ t + Yn+ t − X n − Yn = n) = ∑ P( X n+ t − X n = k , Yn+ t − Yn = n − k ) =
k =0
n n n
(λt ) k − µt ( µt ) n− k
= ∑ P ( X n+ t − X n = k ) P(Yn+ t − Yn = n − k ) = ∑ Pk (t ) Pn− k (t ) = ∑ e − λt
e =
k =0 k =0 k =0 k! ( n − k )!
1 n n! −(λ + µ )t
[ (λ + µ )t ]
n

= e −(λ + µ )t ∑
n ! k = 0 k !( n − k )!
( λt ) k
( µt ) n− k
= e
n!
,

ceea ce dovedeşte faptul că {Zt} este un proces Poisson, omogen.

Teoremă. Fie {Xt} un proces Poisson omogen şi (τn)n∈N şirul momentelor de producere a
evenimentelor aleatoare. Atunci, (τn+1-τn)n≥0, τ0=0 sunt variabile aleatoare independente,
identic repartizate, cu funcţia de repartiţie

⎧0 ,x ≤ 0
F( X ) = ⎨ − λx
⎩1 − e ,x > 0

Demonstraţie. {Xt} este un proces Markov aditiv, deci τn+1-τn, n = 0,1,2,… sunt variabile
aleatoare independente.
Atunci, P(τn+1-τn < x / τn = y) = P(Xy+n - Xy > 0) = 1- P0(x) = 1-e-λx, dacă x > 0
(independent de y).
Deci,
P(τn+1-τn < x / τn = y) = P(τn+1-τn < x) = F(x) = 1- e-λx

Urmează că densitatea de repartiţie corespunzătoare este:

⎧0 ,x ≤ 0
f ( x ) = ⎨ − λx
⎩λe ,x > 0


1
iar M(τn+1-τn) = λ ∫ xe − λx dx = .
0
λ

Observaţie. Se constată că dacă numărul de evenimente ce apar în intervalul de timp (0,t)


este un proces Poisson omogen, adică
( λt ) n
P( X t − X 0 = n ) = e − λ t n = 0,1,2,… ,
n!

135
atunci intervalul de timp dintre două momente succesive de apariţie a evenimentelor, este o
variabilă aleatoare repartizată exponenţial negativ de parametru λ.
Procesele Poisson intervin în diverse aplicaţii şi îndeosebi în teoria firelor de aşteptare
sau în siguranţa de funcţionare a unor sisteme complexe.
Ca aplicaţii să considerăm procesul de naştere şi de moarte.
Să presupunem că la momentul t sistemul se află în starea En. Probabilitatea de trecere din
starea En în starea En+1, în intervalul de timp (t, t+∆t) este egală cu λn∆t + O(∆t), iar
probabilitatea de trecere în starea En-1 în acelaşi interval de timp este egală cu µn∆t + O(∆t).
Probabilitatea ca în intervalul de timp (t,t+∆t) să nu avem nici o modificare de stare
(adică procesul rămâne în starea En) este 1 - (λn + µn) ∆t + O(∆t), iar probabilitatea de trecere
din starea En într-o stare En+1 sau En-1 cu i > 1 este O(∆t), unde am notat prin O(∆t) o funcţie
O( ∆t )
cu proprietatea că lim .
∆t →0 ∆t
Atunci, Pn(t+ ∆t ) = λn-1Pn-1(t) ∆t + [1-(λn + µn) ∆t ] Pn(t) + µn+1Pn+1(t) ∆t +O( ∆t )

Trecând Pn(t) în membrul întâi, împărţind cu ∆t şi trecând la limită pentru ∆t → 0,


deoarece membrul doi are limită finită, rezultă că şi membrul întâi are limită şi obţinem:

dPn (t )
= λ n−1 Pn−1 (t ) − (λ n + µ n ) Pn (t ) + µ n+1 Pn+1 (t ), n = 1,2,3, ...
dt
dP0 (t)
= − λ 0 P0 (t ) + µ 1 P1 ( t ) ,
dt

care se obţine în acelaşi mod.


Acest sistem de ecuaţii sunt ecuaţiile diferenţiale ale procesului, care, integrate, ne
conduc la probabilităţile stărilor Pn(t), n = 0,1,2,….
Să obţinem de aici unele cazuri particulare.
1. În cazul în care µn = 0, n = 1,2,… sistemul de ecuaţii diferenţiale devine:

dPn (t )
= λn−1 Pn−1 (t ) − λn Pn (t ), n = 1,2,...
dt
dP0 (t)
= − λ0 P0 (t ) ,
dt

care sunt ecuaţiile diferenţiale ale procesului simplu de naştere.

2. Dacă λx = 0, sistemul de ecuaţii diferenţiale devine:

dPn (t )
= − µ n Pn (t ) + µ n+1 Pn+1 (t ), n = 1,2,...
dt
dP0 (t)
= − µ 0 P0 (t ) + µ1 P1 (t ) ,
dt

care constituie ecuaţiile diferenţiale ale procesului simplu de moarte.

Să studiem separat procesul simplu de naştere, procesul simplu de moarte, apoi să


determinăm soluţia în cazul general al unui proces de naştere şi de moarte, în ipoteza că
acestea sunt liniare.

136
Procesul simplu de nastere
Am văzut că sistemul de ecuaţii diferenţiale ale probabilităţilor stărilor este:

dPn ( t )
= λn −1 Pn −1 ( t ) − λn Pn ( t ), n = 1,2,...
dt ⎧1 i = n
unde Pn ( 0) = δ in = ⎨
dP0 (t)
= − λ0 P0 ( t ) ⎩0 i ≠ n
dt

Vom spune că procesul simplu de naştere este liniar dacă λn = nλ, λ > 0, iar în acest
caz sistemul de ecuaţii diferenţiale devine:

dPn ( t )
= − λn Pn ( t ) + λn −1 Pn −1 ( t ), n ≥ 1
dt

Pentru n = 1, obţinem:
dP1 (t)
= − λP1 ( t )
dt

şi, de aici, P0(t) = c1e-λt. Cum P1(0) = 1, rezultă c1 = 1.


Considerând acum ecuaţia
P’(n) = -λnPn(t) + λ(n-1)Pn-1(t)

şi notând Ln(t) = Pn(t)eλtn ,


ecuaţia diferenţială devine: L’n(t)e-λtn - λnLn(t)e-λtn = -λnLn(t)e-λtn + λ(n-1)Ln-1(t)e-λt(n-1)
sau
L’n(t) = λ(n-1)Ln-1(t)eλt

Însă L1(t) = P1(t)eλt = 1 şi, deci,


t t

L2 (t ) = λ ∫ e λu P1 ( u)du = λ ∫ e λudu = e λt − 1
0 0
t t
⎡ 1 1 ⎤
L3 (t ) = 2λ ∫ e P2 ( u)du = 2λ ∫ e λu ( e λu − 1) du = 2λ ⎢ ( e 2 λt − 1) − ( e λt − 1) ⎥ = ( e λt − 1)
λu 2

0 0
⎣ 2λ λ ⎦

În general, Ln(t) = (eλt-1)n-1, de unde urmează că Pn(t) = e-λt(1-e-λt)n-1, n = 1,2,3,….



Să arătăm că ∑ P (t ) = 1 .
n =1
n

∞ ∞
Într-adevăr, ∑ e (1 − e )
n =1
− λt − λt n −1
=e − λt
∑ (1 − e λ )
n =1
− t n −1
= 1.

Putem acum calcula media şi dispersia procesului:

∞ ∞ n −1

M ( X t ) = ∑ nPn ( t ) = e − λt ∑ n(1 − e − λt )
n =1 n =1

Dacă notăm 1- e − λt = z, atunci


137
n−1

d ⎛ 1 ⎞ λt
M ( Xt ) = e − λt
∑ nz
n =1
= e − λt ⎜ ⎟=e
dz ⎝ 1 − z ⎠

∞ ∞ n −1

M 2 ( X t ) = ∑ n Pn ( t ) = e
2 − λt
∑n 2
z
n =1 n =1

Cum
∞ ∞ ∞ ∞
d2 ⎛ 1 ⎞ d ⎛ 1 ⎞
∑n
n =1
2
z n −1
= ∑ n( n − 1 + 1)z
n =1
n −1
= ∑ n( n − 1)z
n= 2
n −1
+ ∑ nz
n =1
n −1
=z 2
dt
⎜ ⎟+ ⎜ ⎟=
⎝ 1 − z ⎠ dz ⎝ 1 − z ⎠
2z 1 1+ z
= 3 + 2 =
(1 − z ) (1 − z ) (1 − z ) 3

λ − e − λt
Deci, M 2 ( X t ) = e − λt − 3λt = e 2 λt ( 2 − e − λt )
e

Mai departe, urmează că:

D 2 ( X t ) = M 2 ( X t ) − M 2 ( X t ) = e 2λt ( 2 − e − λt ) − e 2λt = e λt ( e λt − 1)

Procesul simplu de moarte

Sistemul de ecuaţii diferenţiale ale probabilităţilor stărilor corespunzătoare acestui


proces este dat de:

dPn ( t )
= − µn Pn ( t ) + µn +1 Pn +1 ( t ), n = 0,1,2,...
dt

Procesul simplu de moarte este liniar dacă µn = nµ, µ > 0.


În acest caz, obţinem:
dPn ( t )
= − µnPn ( t ) + µ ( n + 1) Pn +1 ( t )
dt

Dacă presupunem că la momentul t = 0 sistemul se află în starea E n0 , cu n0 ≥ 1, atunci


condiţiile iniţiale ale sistemului de ecuaţii diferenţiale sunt date de:

⎧1 n = n 0
Pn ( 0) = δ n0 n = ⎨
⎩0 n ≠ n 0

Să obţinem soluţia sistemului de ecuaţii pentru procesul de moarte liniar.


dPn0 ( t )
Se observă că pentru n = n0 avem Pn0 +1 (t) = 0 şi, deci, = − µn 0 Pn0 ( t ) , de unde rezultă:
dt
Pn0 ( t ) = e − µn0 t

Dacă n = n0 - 1, obţinem
dPn0 −1 ( t )
= − µ ( n 0 − 1) Pn0 −1 ( t ) + µn0 Pn0 ( t )
dt
138
sau, dacă înlocuim Pn0 ( t ) :
dPn0 −1 ( t )
= − µ ( n 0 − 1) Pn0 −1 ( t ) + µn0 e − µn0t ,
dt

care este o ecuaţie liniară de ordinul întâi.


Ecuaţia omogenă are soluţia Pn0 −1 ( t ) = ce − µ ( n0 −1) t şi, aplicând metoda variaţiei
constantelor,
P' n0−1 (t ) = c' e− µ ( n0 −1) t − µ ( n0 − 1)ce − µ ( n0 −1) t ,

care, înlocuită în ecuaţie ne conduce la


c' e − µ ( n0 −1) t = µn0e − µn0t
c' = µn0 e − µt ,

de unde rezultă:
t

c = µn 0 ∫ e − µu du = n 0 (1 − e − µt )
0

Prin urmare, Pn0 −1 (t ) = n0e− µn0t (e µt − 1) şi, în general, rezolvând din aproape în aproape,

Pn ( t ) = Cnn0 e − µn0t ( e µt − 1) n0 − n , 0 ≤ n < n0

Aplicând acum definiţiile valorilor caracteristice numerice ale procesului, se obţine:

M(Xt) = n0e-µt, D2(Xt) = n0e-µt(1-e-µt)

5.8. Procesul de naştere şi moarte

Am văzut că ecuaţiile diferenţiale ale procesului sunt:

dPn ( t )
= λn −1 Pn −1 ( t ) − ( λn + µn )Pn ( t ) + µn +1 Pn +1 ( t ), n = 1,2,3,...
dt
dP0 (t)
= − λ0 P0 ( t ) + µ1 P1 ( t )
dt

Procesul este liniar dacă λn = nλ; µn = nµ, iar starea En pentru n = 0 este o stare de absorbţie.
În cazul procesului liniar, avem de rezolvat sistemul:

dPn ( t )
= λ ( n − 1) Pn −1 ( t ) − ( λn + µn ) Pn ( t ) + µ ( n + 1) Pn +1 ( t ), n = 1,2,3,...
dt
dP0 (t)
= µP1 ( t )
dt

Urmează că λ0 = µ0 = 0, iar pentru t = 0 şi n = n0 condiţiile iniţiale devin:

139
⎧1 n = n 0
Pn ( 0) = δ n0 n = ⎨
⎩0 n ≠ n 0

Pentru a afla soluţia sistemului de ecuaţii diferenţiale menţionat, vom utiliza funcţia

generatoare G( t ,θ ) = ∑ Pn ( t )θ n . În urma unor calcule relativ simple, sistemul de ecuaţii
n= 0
devine:
∂G( t , θ ) ∂G( t , θ )
= (θ − 1)( λθ − µ )
∂t ∂t

Soluţia acestei ecuaţii cu derivate parţiale este dată de:

n0
⎡ λθ − µ + µ (1 − θ )e ( λ − µ ) t ⎤
G ( t ,θ ) = ⎢ ( λ − µ )t ⎥
⎣ λθ − µ + λ (1 − θ )e ⎦

1 − e( λ −µ )t λ
Dacă se notează u( t ) = µ ; v( t ) = u( t ) , funcţia generatoare poate fi scrisă
µ − λe ( λ − µ ) t µ
sub forma:
n
⎡ u( t ) + (1 − u( t ) − v( t ))θ ⎤ 0
G( t ,θ ) = ⎢ ⎥ ;
⎣ 1 − v( t )θ ⎦

coeficientul lui θn din funcţie ne dă:

min( n0 , n )

∑C Cnn0−+jn − j −1 ( u( t )) n0 − j ( v ( t )) n0 − j [1 − u( t ) − v ( t )]
j
Pn ( t ) = j
n0
j=0

Cunoscând funcţia generatoare, momentele se pot calcula uşor şi se obţine:

⎧ ⎛ λ + µ ⎞ ( λ − µ )t ( λ − µ )t
⎧n 0 e ( λ − µ ) t
M( Xt ) = ⎨
,λ ≠ µ
; 2 ⎪n ⎜ ⎟e
D ( Xt ) = ⎨ 0⎝ λ − µ⎠
(e − 1) , λ ≠ µ
⎩ n0 ,λ = µ ⎪
⎩ 2λ t ,λ = µ

⎧0 ,µ > λ

Din expresia valorii medii a procesului rezultă imediat că lim M ( X t ) = ⎨n 0 ,µ = λ
t →∞
⎪∞ ,µ < λ

Interpretarea acestui rezultat este simplă, şi anume: dacă rata deceselor este mai mare
decât rata naşterilor, atunci populaţia se stinge; dacă rata deceselor este egală cu rata
naşterilor, numărul mediu de indivizi din populaţie ar trebui să rămână neschimbat şi, în fine,
dacă µ < λ populaţia creşte nelimitat.
Să arătăm cum putem obţine din procesul de naştere şi moarte principalele modele de
aşteptare cu veniri poissoniene şi timp de servire exponenţial. Pentru aceasta, să considerăm
sistemul de ecuaţii diferenţiale ale unui proces de naştere şi moarte:

140
⎧ dPn ( t )
⎪⎪ dt = λn −1 Pn −1 ( t ) − ( λn + µn ) Pn ( t ) + µn +1 Pn +1 ( t ), n = 1,2,3,...

⎪ dP0 (t) = − λ P ( t ) + µ P ( t )
⎪⎩ dt 0 0 1 1

Dacă λn = λ, µn = µ, oricare ar fi n∈N, atunci se obţin ecuaţiile unui model de


aşteptare cu o staţie, veniri poissoniene şi timp de servire exponenţial:

⎧ dPn ( t )
⎪⎪ dt = λPn −1 ( t ) − ( λ + µ ) Pn ( t ) + µPn +1 ( t ), n = 1,2,3,...

⎪ dP0 (t) = − λP ( t ) + µP ( t )
⎪⎩ dt 0 1

Dacă se menţin condiţiile λn = λ, µn = µ, oricare ar fi n∈N şi 0 ≤ n ≤ N, adică


Pn(t) = 0, n = N+1,… , atunci se obţin ecuaţiile unui model de aşteptare cu o staţie, veniri
poissoniene, timp de servire exponenţial şi fir de aşteptare limitat:

⎧ dP0 (t)
⎪ dt = − λP0 ( t ) + µP1 ( t )

⎪ dPn ( t )
⎨ = λPn −1 ( t ) − ( λ + µ ) Pn ( t ) + µPn +1 ( t ), n = 1,2,3,...N -1
⎪ dt
⎪ dPN (t)
⎪ dt = λPN −1 ( t ) − µPN ( t )

Dacă se consideră λn = (m-n)λ, µn = µ, n = 0,1,2,…,m; Pn(t) = 0, n = m+1,m+2,… , se


obţin ecuaţiile sistemului de aşteptare cu o staţie, veniri poissoniene, timp de servire
exponenţial, populaţie finită:

⎧ dP0 (t)
⎪ dt = − mP0 ( t ) + µP1 ( t )

⎪ dPn ( t )
⎨ = λ [m − ( n − 1)]Pn −1 ( t ) − [( m − n )λ + µ ]Pn ( t ) + µPn +1 ( t ), n = 1,2,3,..., m -1
⎪ dt
⎪ dPm (t)
⎪ dt = λPm−1 ( t ) − µPm ( t )

⎧nµ ,1 ≤ n ≤ s − 1
Dacă se consideră λn = λ, n∈N, µn = ⎨ , se obţin ecuaţiile sistemului
⎩ sµ ,n ≥ s
de aşteptare cu s staţii, veniri poissoniene, timp de servire exponenţial pentru fiecare staţie
(staţii identice), populaţie infinită:

⎧ dP0 (t)
⎪ dt = − λP0 ( t ) + µP1 ( t )

⎪ dPn ( t )
⎨ = λPn −1 ( t ) − ( λ + nµ ) Pn ( t ) + ( n + 1)µPn +1 ( t ), n = 1,2,3,...,s -1
⎪ dt
⎪ dPn (t)
⎪⎩ dt = λPn −1 ( t ) − ( λ + sµ ) Pn ( t ) + sµPn +1 ( t )

141
⎧nµ ,1 ≤ n ≤ s − 1
Dacă se consideră λn = λ, n∈N, µn = ⎨ şi, evident, Pm+1(t) =
⎩ sµ ,n ≥ s
= Pm+2(t) = … = 0, se obţin ecuaţiile sistemului de aşteptare cu s staţii, veniri poissoniene,
timp de servire exponenţial pentru fiecare staţie, fir de aşteptare limitat:

⎧ dP0 (t)
⎪ dt = − λP0 ( t ) + µP1 ( t )

⎪ dPn ( t ) = λP ( t ) − ( λ + nµ ) P ( t ) + ( n + 1)µP ( t ), n = 1,2,3,...,s -1
⎪ dt n −1 n n +1

⎪ dPn (t) = λP ( t ) − ( λ + sµ ) P ( t ) + sµP ( t ), n = s,s + 1,..., m -1
⎪ dt n −1 n n +1

⎪ dP (t)
⎪ n = λPm−1 ( t ) − sµPm ( t )
⎩ dt

⎧ nµ ,1 ≤ n ≤ s − 1
Dacă se consideră λn = (m-n), µ n = ⎨ şi, evident, Pm+1(t) =
⎩ sµ , s ≤ n ≤ m
= Pm+2(t) = … = 0, se obţin ecuaţiile sistemului de aşteptare cu s staţii, veniri poissoniene,
timp de servire exponenţial pentru fiecare staţie, populaţie finită:

⎧ dP0 (t)
⎪ dt = − mλP0 ( t ) + µP1 ( t )

⎪ dPn ( t ) = λ [m − ( n − 1)]P ( t ) − [( m − n )λ + nµ ]P ( t ) + ( n + 1)µP ( t ), n = 1,2,3,..., s -1
⎪ dt n −1 n n +1

⎪ dPn ( t ) = λ [m − ( n − 1)]P ( t ) − [( m − n )λ + sµ ]P ( t ) + sµP ( t ), n = s, s + 1,..., m -1
⎪ dt n −1 n n +1

⎪ dP (t)
⎪ m = λPm−1 ( t ) − sµPm ( t )
⎩ dt

142
Capitolul 6

ELEMENTE DE TEORIA INFORMAŢIEI

6.1. Informaţia; cantitatea de informaţie

Comunicările sau mesajele pe care le întâlnim în teoria informaţiei sunt constituite


dintr-o mulţime de date referitoare la un anumit sistem fizic.
Aşa, de exemplu, ca date de intrare într-un sistem de comandă automată a unei secţii
dintr-o întreprindere industrială pot servi comunicări relative la mărimea procentului de rebut
a produselor fabricate, compoziţia chimică a unui material, temperatura într-un cuptor de
tratament termic etc.
Toate aceste comunicări descriu starea unui sistem fizic, iar cunoaşterea stării
sistemului fizic conduce la faptul că transmiterea de informaţie este inutilă.
Aşadar, orice comunicare nu are sens dacă starea sistemului este dinainte cunoscută.
Noţiunea de informaţie, în teoria informaţiei, nu se defineşte. Pentru construirea
acestei teorii este necesară şi suficientă numai noţiunea de cantitate de informaţie.
Vom conveni, deci, că o informaţie transmisă se referă la un anumit sistem fizic, A,
sistem care se poate afla ocazional într-o stare anumită, ceea ce înseamnă că sistemul este
caracterizat printr-un anumit grad de nedeterminare.
În conformitate cu definiţia obiectului teoriei informaţiei în accepţiunea actuală,
măsura cantităţii de informaţie trebuie să fie utilă pentru analiza şi sinteza sistemului de
transmitere, precum şi de păstrare a informaţiei.
Cantitatea de informaţie trebuie definită prin ceva general, care să reflecte obiectiv
diferitele aspecte ale comunicărilor, păstrând armonia cu reprezentările intuitive legate de
obţinerea de informaţii.
Aceasta scoate în relief faptul că obţinerea unei informaţii arbitrare are loc în prezenţa
unui experiment.
Orice informaţie dobândită de noi este rezultatul unui experiment şi numai al unui
experiment.
Drept experiment poate fi, de exemplu, considerat o transmisie radio, o transmisie prin
semnale optice, variaţiile unui parametru al unui proces dat, măsurile efectuate cu anumite
aparate etc.
Înainte de efectuarea experimentului, trebuie să existe o anumită nedeterminare asupra
rezutatelor posibile ale acestui experiment.
Informaţiile ce le obţinem vor fi cu atât mai importante cu cât gradul de nedeterminare
înaintea recepţionării lor (adică gradul de nedeterminare “apriori”) este mai mare.
Astfel, până la efectuarea experimentului avem o nedeterminae mai mică sau mai mare
în sistemul fizic ce ne interesează, iar după efectuarea experimentului (deci după ce s-a
obţinut informaţia) sistemul devine mai determinat şi la întrebarea pusă referitor la starea
sistmului putem răspunde sau că starea este unică, sau că s-a micşorat gradul de
nedeterminare.
Cantitatea cu care s-a micşorat gradul de nedeterminare după experiment este egală cu
cantitatea de informaţie ce ne-a dezvăluit-o rezultatul experimentului.
Pentru a stabili o relaţie cu ajutorul căreia să calculăm cantitatea de informaţie este
necesar să stabilim o relaţie care să exprime gradul de nedeterminare al experimentului.
Diferenţa dintre aceste cantităţi de nedeterminare dă cantitatea de informaţie ce se
obţine în urma unui experiment dat.
Pentru aceasta, vom presupune mai întâi că după un experiment nu mai există nici o
nedeterminare.
143
Aşa, de exemplu, dacă considerăm aruncarea cu un ban, avem experimentul A cu două
rezultate posibile A1 şi A2.
⎛ A1 A2 ⎞
A: ⎜⎜ 1 1⎟

⎝2 2⎠

1 1
Fiecare rezultat poate să apară cu aceeaşi probabilitate P( A1 ) = , P( A2 ) = .
2 2
După aruncarea monedei (deci după efectuarea expeimentului) nu mai avem nici o
nedeterminare şi ca atare nedeterminarea existentă până la efectuarea experimentului, numeric
va fi egală cu cantitatea de informaţie obţinută.
De aici rezultă că gradul de nedeterminare până la efectuarea experimentului (sau
cantitatea de informaţie), satisface următoarele cerinţe intuitive:
1. Cantitatea de informaţie obţinută în urma efectuării a două experimente este mai mare la
experimentul care are mai multe rezultate posibile.
Dacă notăm cu I cantitatea de informaţie şi cu n numărul rezultatelor, atunci această
cerinţă se exprimă astfel:

I(n1) ≥ I(n2), dacă n1 ≥ n2

2. Experimentul cu un singur rezultat posibil conduce în mod necesar la o cantitate de


informaţie egală cu zero, adică:
I(1) = 0

3. Cantitatea de informaţie obţinută din două experimente independente trebuie să fie egală
cu suma cantităţilor de informaţie a celor două experimente.
Aşa, de exemplu, dacă ne referim la cantitatea de informaţie conţinută în două cărţi
diferite în ceea ce priveşte conţinutul, aceasta este egală cu suma cantităţilor de informaţie
din fiecare carte. (Dacă cele două cărţi au o parte comună de conţinut, această proprietate
nu mai rămâne adevărată; cantitatea de informaţie va fi mai mică decât suma celor două
cantităţi).
În formă analitică, această proprietate se exprimă cu relaţia:

I(n1,n2) = I(n1) + I(n2)

Evident, singura funcţie de argument n care satisface aceste proprietăţi este funcţia
logaritm şi de aici rezultă că după efectuarea unui experiment care are n rezultate, în urma
căruia nedeterminarea a fost înlăturată, obţinem cantitatea de informaţie:

I = c logan,

unde c şi a sunt constante arbitrare.


Desigur, aici am persupus că nu facem distincţie între rezultatele ce apar cu
probabilităţi mici şi cele ce apar cu probabilităţi mari, ci numai că rezultatele se consideră
egal probabile, adică fiecare din cele n rezultate A1, …, An are aceeaşi probabilitate
1
P( Ai ) = p =
n
Ţinând cont de acest lucru, putem scrie expresia I sub forma:

I = -c logap;

144
alegerea constantei c şi a bazei logaritmului nu este esenţială, deoarece, luând în considerare
indentitatea

logbn = logba logan,

rezultă că trecerea de la o bază la alta a logaritmului revine la înmulţirea cu o constantă sau,


ceea ce este echivalent, cu trecerea la o altă scară pentru cantitatea de informaţie I.
Pentru simplificare, vom considera că c = 1 şi a = 2; în acest caz,

I = -log2p = log2n,

lucru foarte comun în teoria informaţiei. De aici rezultă o proprietate importantă, şi anume că
1
unitatea de informaţie corespunde cazului când p = .
2
Utilizând baza 2 pentru logaritm, cantitatea de informaţie se spune că este exprimată
în “cifre binare” (binary digits) sau, pe scurt, în biţi.
Adesea, se utilizează ca bază pentru logaritm şi numărul e, caz în care unitatea de
informaţie este “nitul”.
În baza egalităţii:
1
log e 2 = 0,693 = ,
1,443

avem următoarele relaţii între unităţile de măsură introduse mai sus:

1 bit = 0,693 nit; 1 nit = 1,443 bit

Să vedem acum ce se întâmplă atunci când rezultatele experimentului nu mai apar cu


probabilităţi egale.
Fie, pentru aceasta, experimentul A cu rezultatele A1,…,An şi cu P(Ai) = pi, adică:

⎛ A1 A2 ... An ⎞
A: ⎜ ⎟
⎝ p1 p 2 ... p n ⎠

Cantitatea de informaţie a unei comunicări care precizează faptul că a apărut rezultatul


( )
Ai este egală cu − log pi = I Ai . Dar această cantitate apare cu probabilitatea pi şi am ajuns
astfel la variabile aleatoare

⎛ I ( A1 ) I ( A2 )... I ( An ) ⎞
X: ⎜ ⎟
⎝ p1 p 2 ... pn ⎠

Pentru a nu lua în considerare o măsură aleatoare a cantităţii de informaţie, vom lua


media acestei variabile şi obţinem:
n n
M ( X ) = ∑ I ( Ai ) p i = − ∑ pi log p i
i =1 i =1

Această relaţie exprimă cantitatea medie de informaţie (sau nedeterminarea medie


până la efectuarea experimentului) a unui rezultat arbitrar Ai condiţionat de faptul că după
experiment a fost înlăturată întreaga nedeterminare.

145
Exemplu. Dintre locuitorii unui oraş, 25% sunt elevi. Printre elevi, 50% sunt fete. Toate
fetele din oraş constituie 35% din locuitori. Ce cantitate de informaţie suplimentară este
conţinută în comunicarea că o fată întâlnită este elevă?
Soluţie.
Notăm cu A1 evenimentul că a fost întâlnită o fată, iar prin A2 evenimentul că a fost
întâlnit un elev.
Atunci,
P(A1)P(A2 / A1) = P(A2)P(A1 / A2)
Dar, P(A1) = 0,35; P(A2) = 0,25; P(A1 / A2) = 0,5
De aici rezultă:
P( A2 )P( A1 / A2 ) 0,25 ⋅ 0,5
P( A2 / A1 ) = = = 0,357
P( A1 ) 0,35
Iar, cu aceasta, cantitatea de informaţie:

I = -log P(A2 / A1) = -log 0,357 = 1,486 biţi

Exemplu. Experimentul A are rezultatele Ai, i = 1,2,3, cu probabilităţile menţionate mai jos:

⎛ A1 A2 A3 ⎞
A: ⎜ ⎟
⎝ 0,2 0,5 0,3⎠

Să se afle cantitatea de informaţie punctuală şi medie a rezultatelor A1,A2,A3.


Soluţie.
I(A1) = -log p1 = -log 0,2 = 2,32 biţi
I(A2) = -log p2 = -log 0,5 = 1,00 biţi
I(A3) = -log p3 = -log 0,3 = 1,74 biţi
Cum avem variabila
⎛ 2,32 1 1,74⎞
X: ⎜ ⎟
⎝ 0,2 0,5 0,3 ⎠
M(X) = 2,32⋅0,2 + 1⋅0,5 + 1,74⋅0,3 = 1,49 biţi

Exemplu. Să considerăm un experiment A cu 2 rezultate posibile

⎛ A1 A2 ⎞
A: ⎜ ⎟,
⎝ 0,1 0,9 ⎠

cu probabilităţile menţionate.
Se repetă experimentul de un număr mare de ori, N, în condiţii identice. Să se afle
cantitatea medie de informaţie ce revine la un rezultat al exprimentului.
Soluţie.
Notăm cu C succesiunea de rezultate în N repetări ale experimentului. Atunci, pentru
N suficient de mare, în virtutea teoremei lui Bernoulli, putem scrie

n1 n
P( A1 ) = , P( A2 ) = 2 ,
N N

unde n1 şi n2 reprezintă, respectiv, numărul de câte ori s-a realizat A1 şi A2 în succesiunea C.


Atunci,
P( C ) = ( P( A1 )) n1 ( P( A2 )) n2 = ( P( A1 )) NP( A1 ) ( P( A2 )) NP( A2 )
146
Se vede că probabilitatea succesiunii C depinde numai de probabilităţile P(A1), P(A2) şi de N.
Putem considera că toate succesiunile posibile C se pot considera ca egal probabile,
iar numărul n va fi:
1
n=
P( C )

În acest caz, pentru determinarea cantităţii de informaţie a succesiunii C, se poate exprima


prin relaţia:

I N = log n = − log P(C) = − log[ P( A1 ) NP( A1 ) P( A2 ) NP( A2 ) ] = − N [ P( A1 )log P( A1 ) + P( A2 )log P( A2 )] ,


unde am notat prin IN cantitatea de informaţie în cele N repetări ale experimentului.
Cantitatea de informaţie pentru un singur rezultat al experimentului va fi de N ori mai
mică
I
I = N = − P( A1 ) log P( A1 ) − P( A2 ) log P( A2 ) ,
N
sau, dacă înlocuim,
I = -0,1 log 0,1 - 0,9 log 0,9 = 0,469 biţi

6.2. Entropie. Proprietăţi ale entropiei

Dacă după efectuarea unui experiment rămâne o anumită nedeterminare, atunci

n
H ( A ) = H ( p1 , p2 ,..., p n ) = − ∑ pi log pi
i =1

nu mai exprimă cantitatea medie de informaţie a unui rezultat al experimentului.


Totuşi, mărimea H(A) exprimă o latură fundamentală pentru teoria informaţiei şi
anume ea reprezintă măsura gradului de nedeterminare până la efectuarea experimentului şi
poartă numele de entropie a experimentului A. Ea a fost introdusă de C.E. Shanon, în 1948, în
lucrarea “A mathematical theory of communications”.
Proprietăţi ale entropiei.
Înainte de a da şi a demonstra proprietăţile imporante ale entropiei, să stabilim o
inegalitate fundamentală, cunoscută sub numele de inegalitatea lui Jensen.
Fie f:[a,b]→R.
Definiţie. Spunem că f este concavă pe intervalul [a,b] dacă în acest interval orice arc al
graficului este situat deasupra coardei ce subîntinde acest arc.
Din această definiţie rezultă că oricare ar fi x1,x2 ∈[a,b] şi λ1,λ2 ≥ 0, λ1 + λ2 = 1, este
satisfăcută inegalitatea
λ1f(x1) + λ2f(x2) ≤ f(λ1x1 + λ2x2)

Putem acum da următoarea propoziţie.


Propoziţie. Dacă f:[a,b]→R este concavă pe [a,b], x1,x2,…,xn∈[a,b], λ1,λ2,…,λn≥0,
n

∑λ
i =1
i = 1 , atunci:
n
⎛ n ⎞

i =1
λi f (xi ) ≤ f ⎜ ∑ λi xi ⎟
⎝ i=1 ⎠

147
Demonstraţie.
Pentru n = 2, inegalitatea este adevărată prin definiţie. Să presupunem inegalitatea
adevărată pentru n = 1 şi să arătăm că rămâne adevărată pentru n.
n n −1
Fie, deci, x1,x2,…,xn∈[a,b], λ1,λ2,…,λn≥0, ∑ λ i = 1 . Să considerăm λ = ∑ λ i şi
i =1 i =1
λi xi
n −1 n −1
λi a n −1
λib
x=∑ . Se vede imediat că ∑ ≤x≤∑ , deci că x∈[a,b] şi, în plus, λ≥0,
i =1 λ i =1 λ i =1 λ
λ+λn=1.
Atunci, cum pentru n = 2 inegalitatea este verificată, rezultă:

λf(x) + λnf(xn) ≤ f(λx + λnxn)

Înlocuind pe x şi λ şi ţinând seama de inducţie, obţinem:

⎛ n −1 λi xi ⎞ ⎛ n −1 λ ⎞
λf ⎜ ∑ ⎟ + λn f ( x n ) ≤ f ⎜ λ ∑ i x i + λ n x n ⎟ ,
⎝ i =1 λ ⎠ ⎝ i =1 λ ⎠

⎛ n −1 λ ⎞ ⎛ n ⎞
adică: λf ⎜ ∑ i xi ⎟ + λn f ( xn ) ≤ f ⎜ ∑ λi xi ⎟ ,
⎝ i =1 λ ⎠ ⎝ i =1 ⎠

n −1
λi ⎛ n ⎞
sau, încă, λ ∑ f ( xi ) + λn f ( xn ) ≤ f ⎜ ∑ λi xi ⎟ , ceea ce justifică afirmaţia.
i =1 λ ⎝ i =1 ⎠

Să punem acum în evidenţă proprietăţile entropiei:

P1. H(p1,p2,…,pn) ≥ 0

Demonstraţie. Cum 0 ≤ pi ≤ 1, i = 1,2,…,n , rezultă că log pi <0, iar semnul minus din faţa
sumei asigură nenegativitatea fiecărui termen - pi log pi.

P2. Dacă există i∈{1,2,…,n} astfel încât pi=1, atunci H(p1,p2,…,pn) = 0

n ⎧1 , k = i
Demonstraţie. Din pi=1 şi
i =1
∑p
= 1 rezultă: pk = ⎨
i
⎩0 , k ≠ i
Ţinând seama de faptul că lim x log x = 0 , să facem convenţia că 0⋅log 0 = 0. Urmează că:
x→ 0

⎛ A 1 A 2 ... A i ... A n ⎞
A: ⎜ ⎟
⎝0 0 1 0 ⎠

Cum 1⋅log 1 = 0, rezultă imediat afirmaţia.

n
⎛1 1 1⎞
P3. Pentru orice p1,p2,…,pn ≥ 0, ∑p
i =1
k = 1 , H ( p1 , p 2 ,..., pn ) ≤ H ⎜ , ,..., ⎟ = log n
⎝n n n⎠
Demonstraţie. În inegalitatea lui Jensen să punem:

1
x k = pk , λ k = , k = 1,2,..., n ş i f ( x ) = − x log x
n
148
Se constată că pe intervalul [0,1] f(x) este concavă şi, deci, inegalitatea lui Jensen este
satisfăcută.
Atunci, putem scrie
n
1 ⎛ n 1 ⎞ n
1 1 1
− ∑ pk log pk ≤ −⎜ ∑ pk ⎟ log ∑ pk = − log ,
k =1 n ⎝ k =1 n ⎠ k =1 n n n

1 1⎛ 1⎞
de unde rezultă: H ( p1 , p2 ,..., pn ) ≤ ⎜ − log ⎟, adică:
n n⎝ n⎠
⎛1 1 1⎞
H ( p1 , p2 ,..., pn ) ≤ log n = H⎜ , ,..., ⎟
⎝n n n⎠

Observaţie. Această proprietate spune că entropia unui experiment este maximă atunci când
p1 = p2 = … = pn = 1 / n.
Acest lucru este în concordanţă cu imaginea pe care o avem asupra nedeterminării,
deoarece cea mai mare nedeterminare într-un experiment cu n rezultate posibile, o avem
atunci când toate rezultatele experimentului sunt egal posibile.

P4. Dacă avem două experimente


⎛ A1 A2 ... An ⎞ ⎛ A1 A2 ... An An+1 ⎞
A: ⎜ ⎟ şi B: ⎜ ⎟,
⎝ p1 p2 ... pn ⎠ ⎝ p1 p2 ... pn 0 ⎠
atunci H(p1,p2,…,pn,0) = H(p1,p2,…,pn)

n n +1 n
Demonstraţie. Fie p1,p2,…,pn ≥ 0, ∑p k =1
k = 1 şi p1,p2,…,pn,pn+1 ≥ 0, ∑p
k =1
k = ∑p
k =1
k =1

Deoarece pn+1log pn+1 = 0 rezultă:


n +1 n
H ( p1 , p2 ,..., pn ,0) = H ( p1 , p2 ,..., pn , pn+1 ) = − ∑ pk log pk = − ∑ pk log pk − pn+1 log pn+1 =
k =1 k =1
n
= − ∑ pk log pk = H ( p1 , p2 ,..., pn )
k =1

Să considerăm acum un experiment compus din experimentele A şi B. Dacă cele două


experimente sunt date de
⎛ A1 A2 ... Am ⎞ ⎛ A1 A2 ... Bn ⎞
A: ⎜ ⎟ şi B: ⎜ ⎟,
⎝ p1 p2 ... pm ⎠ ⎝ q1 q2 ... qn ⎠

prin experimentul compus (A,B) înţelegem experimentul cu rezultatele:

⎛ A1 ∩ B1 A1 ∩ B2 ... A1 ∩ Bn A2 ∩ B1 A2 ∩ B1 ... Am ∩ Bn ⎞
( A ,B):⎜ ⎟,
⎝ π 11 π 12 ... π 1n π 21 π 21 ... π mn ⎠

149
unde am notat Ai∩Bj obţinerea simultană a rezultatelor Ai şi Bj, iar πij = P(Ai∩Bj);
m n
i=1,2,…,m; j=1,2,…,n. Evident, πij ≥ 0, ∑ ∑π
i =1 j =1
ij = 1.

Are loc următoarea proprietate:


P5. Dacă experimentele A şi B sunt independente, atunci H(A,B) = H(A) +H(B)

Demonstraţie. Întrucât A şi B sunt independente, rezultă că:


π ij = P(A i ∩ B j ) = P(A i )P(B j ) = p i q j
Prin urmare:
m n m n m n n m
H(A ,B ) = − ∑ ∑ π ij log π ij = − ∑ ∑ p i q j log(p i q j ) = − ∑ p i log p i ( ∑ qj) − ∑ qj log qj( ∑ p i ) =
i =1 j=1 i =1 j=1 i =1 j=1 j=1 i =1

= H(A ) + H(B )
Să presupunem acum că cele două experimente A şi B nu mai sunt independente.
Fie:
⎛ A A 2 ... A m ⎞ m
A :⎜ 1
⎝ p1 p 2 ... p m ⎠
,
⎟ kp ≥ 0 , k = 1, 2,... m , ∑
k =1
pk = 1

Să presupunem că experimentul B este condiţionat de rezultatele experimentului A.


Dacă notăm cu B1, B2,…Bn rezultatele experimentului B, atunci notăm cu Bj/Ai
rezultatul Bj al experimentului B condiţionat de rezultatul Ai al experimentului A.
Probabilitatea unui astfel de rezultat s-o notăm
P(Bj/Ai) = qij, i=1,2,…,m; j = 1,2,…,n.
Rezultă că:
n
qij ≥ 0, ∑ qij = 1, i = 1,2,..., m
j =1

( )
Cum: π ij = P A i ∩ B j = P(A i ) ⋅ P B j / A i , ( )
rezultă că: πij = piqij, i = 1,2,…,m; j = 1,2,…,n ,
m n m n
cu πij ≥ 0 şi ∑ ∑ π ij = ∑ ∑ p iq ij = 1
i =1 j=1 i =1 j=1

⎛ B1 / Ai B2 / Ai ... Bn / Ai ⎞
Notând experimentul Bi , Bi :⎜ ⎟,
⎝ qi1 qi 2 ... qin ⎠
n
obţinem: H i (B ) = (Bi ) = H(q i1 , q i 2 ,..., q in ) = − ∑ q ij log q ij
j=1

Măsura nedeterminării dată de experimentul Bi o vom numi entropia experimentului B


condiţionată de rezultatul Ai al experimentului A.
Dar Ai se realizează cu probabilitatea pi şi, deci, avem o variabilă aleatoare:
⎛ H1 (B ) H 2 (B )... H m (B )⎞
⎜ ⎟
⎝ pi p 2 ... pm ⎠
Luând valoarea medie a acestei variabile aleatoare, se obţine nedeterminarea
experimentului B condiţionată de întregul experiment A, adică:
m
H A (B ) = H(B / A ) = ∑ p k H k (B )
k =1
Numim această măsură a nedeterminării, entropia experimentului B condiţionată de
experimentul A.
m n m
Să observăm că: q j = P( B j ) = ∑ P( Ai ∩ B j ) = ∑ P( Ai )P( B j / Ai ) = ∑ pi qij
i =1 j =1 i =1

150
Dacă experimentele A şi B sunt independente, atunci qij = qj şi de aici rezultă:
n
H1 (B ) = H 2 (B ) =... = H m (B ) = − ∑ q ij log q j = H(B )
j=1
m m
şi deci: HA (B ) = ∑ p i H i (B ) = H(B )∑ p i = H(B )
i =1 i =1
Dacă însă nu mai presupunem independenţa experimentelor, atunci este adevărată
următoarea proprietate.
Propoziţie
Fiind date două experimente oarecare, avem îndeplinită egalitatea:
H(A; B) = H(A) + HA(B)
Demonstraţie:
m n m n m ⎛ n ⎞
H(A ,B ) = H(π 11 , π 12 ,..., π mn ) = − ∑ ∑ π ij log π ij = − ∑ ∑ p i q ij log p i q ij = − ∑ p i log p i ⎜ ∑ q ij ⎟ −
i =1 j=1 i =1 j=1 i =1 ⎝ j=1 ⎠

m ⎛ m ⎞ m
− ∑ p i ⎜ ∑ q ij log q ij ⎟ = H(A ) + ∑ p i H i (B ) = H(A ) + H A (B )
i =1 ⎝ j=1 ⎠ i =1

Propoziţie
Fiind date două experimente oarecare, este adevărată inegalitatea: HA(B) ≤ H(B)
Demonstraţie:
m
⎛ m ⎞
În inegalitatea lui Jensen pentru funcţii concave: ∑ λi f ( xi ) ≤ f ⎜ ∑ λi xi ⎟
i =1 ⎝ i =1 ⎠
Să punem f(x) = - x log x (care este funcţie concavă), xi = qij, λi = pi; atunci, obţinem:
m
⎛ m ⎞ ⎛ m ⎞
− ∑ pi qij log qij ≤ −⎜ ∑ pi qij ⎟ log⎜ ∑ pi qij ⎟
i =1 ⎝ i =1 ⎠ ⎝ i =1 ⎠
m
Cum însă ∑p q
i =1
i ij = q j rezultă inegalitatea pe care, dacă o însumăm după j, ne dă:
m n n
− ∑ pi ∑ qij log qij ≤ − ∑ q j log q j ,
i =1 j =1 j =1

adică: HA(B) ≤ H(B)


Din această inegalitate rezultă următoarea observaţie practică: cunoaşterea rezultatelor
experimentului A micşorează nedeterminarea experimentului B (dacă acestea nu sunt
independente).
Rezultă, de asemenea, imediat o altă proprietate:
Propoziţie
Fiind date două experimente A, B oarecare, avem: H(A, B) ≤ H(A) + H(B)
Demonstraţie
H(A, B) = H(A) + HA(B) ≤ H(A) + H(B).
Propoziţie
Fiind date k experimente oarecare A1, A2, …Ak , avem inegalitatea:
k
H(A1, A2, …,AK) ≤ ∑ H(A
l =1
l )

egalitatea având loc atunci când experimentele sunt independente în totalitatea lor.

151
Demonstraţie
Se aplică proprietatea de inducţie şi se obţine:
H(A1, A2, …, AK) = H(A1) + H(A2,…, AK) ≤ H(A1) + H(A2) + …+ H(AK).
Propoziţie
Fiind date două experimente A, B oarecare, avem egalitatea:
HB(A) = HA(B) + H(A) – H(B) sau
HB(A) + H(B) = HA(B) + H(A)
Demonstraţie
Egalităţile menţionate rezultă imediat din faptul că:
H(A, B) = H(A) + HA(B) = H(B) + HB(A).
O observaţie importantă pentru aplicaţii practice ce se obţine de aici este următoarea:
dacă experimentul A determină complet experimentul B, adică HA(B) = 0, atunci
HB(A) = H(A) – H(B).
Am văzut, deci, că relaţia introdusă de Shannon:
n
H ( p1 , p2 ,..., pn ) = − ∑ pi log pi
i=2
poate fi considerată ca o bună măsură a gradului de nedeterminare a unui experiment. Se pune
însă întrebarea dacă mai există şi alte funcţii care să aibă proprietăţile pe care le are entropia.
Vom formula răspunsul prin teorema de unicitate care urmează:
Teoremă
Fie H(p1, p2, …, pn) o funcţie simetrică definită pentru orice n ∈ Ν şi orice sistem de
n
probabilităţi: pi ≥ 0; 1 ≤ i ≤ n, ∑p
i =1
i =1

Dacă funcţia H are următoarele proprietăţi: i) este continuă în raport cu ansamblul


1
variabilelor; ii) H(p1, p2, …, pn) este maximă pentru pi = , i = 1, 2, …, n; iii) H(p1, p2, …,
n
pn, 0) = H(p1, p2,…, pn); iv) pentru orice n + 1 sisteme de probabilităţi: p1, p2, …, pn ≥ 0,
n m

∑p
i =1
i = 1 şi qi1, qi2, …, qim ≥ 0, ∑q
j =1
ij = 1 , 1≤ i ≤ n cu ajutorul cărora construim un nou sistem

de probabilităţi: πij = piqij, 1≤ i ≤ n, 1≤ j ≤ m, este adevărată egalitatea:


n
H(π11, π12, …, πnm) = H(p1, p2, …, pn) + ∑p
i =1
i . H(qi1, qi2, …, qim), atunci:
n
H(p1, p2, …, pn) = - λ ∑ pi log pi
i =1
Demonstraţie
Vom face demonstraţia în trei etape. Mai întâi vom arăta că relaţia este adevărată în
1
cazul când p1 = p2 = … pn = . Apoi vom arăta că rămâne valabilă când pi sunt numere
n
n
raţionale pozitive supuse la condiţia ∑p i =1
i = 1 şi în fine, că relaţia se menţine adevărată când
n
pi sunt numere reale pozitive pentru care ∑p
i =1
i = 1.

⎛1 1 1⎞ ⎛1 1 1⎞ ⎛1 1 1 ⎞
Să notăm H ⎜ , ,..., ⎟ = L( n ) ; atunci: L(n) = H ⎜ , ,..., ⎟ = H ⎜ , ,..., ,0⎟ ≤
⎝n n n⎠ ⎝n n n⎠ ⎝n n n ⎠
⎛ 1 1 1 ⎞
≤ H⎜ , ,..., ⎟ = L( n + 1) , în baza ipotezei (iii).
⎝ n +1 n +1 n + 1⎠
Deci funcţia L are proprietatea L(n) ≤ L(n+1), ∀n∈N
152
Să arătăm că oricare ar fi r, s ∈ N este adevărată egalitatea: L(sr) = rL(s)
Vom aplica procedeul inducţiei după r.
1 1
Pentru r = 2, să punem n = s, m = s, pi = , 1 ≤ i ≤ s; qij = , 1 ≤ i ≤ s, 1 ≤ j ≤ s
s s
1
Atunci π ij = p i q ij = 2 şi de aici, pe baza proprietăţii (IV), putem scrie:
s
⎛ 1 1 1 ⎞ ⎛1 1 1 ⎞ s 1 ⎛1 1 1⎞
L( s2 ) = H⎜ 2 , 2 ,..., 2 ⎟ = H⎜ , ...., ⎟ + ∑ H⎜ , ,..., ⎟ = L( s) + L( s) = 2 L( s)
⎝s s s ⎠ ⎝s s s ⎠ i =1 s ⎝ s s s⎠
Deci proprietatea este adevărată pentru r = 2. Să o presupunem adevărată pentru r – 1
şi să arătăm că se menţine pentru r.
1 1
Să presupunem n = s, m = sr-1, pi = , 1 ≤ i ≤ s, qij = r−1 , 1 ≤ i ≤ s, 1 ≤ j ≤ sr-1
s s
1
Urmează că: πij = piqij = r , 1 ≤ i ≤ s, 1 ≤ j ≤ sr-1
s
Atunci, proprietatea (IV) conduce la:
⎛1 1 1⎞ ⎛1 1 1⎞ s 1 ⎛ 1 1 1 ⎞
H ⎜ r , r ,..., r ⎟ = H ⎜ , ,..., ⎟ + ∑ H ⎜ r −1 , r −1 ,..., r −1 ⎟ , sau
⎝s s s ⎠ ⎝s s s ⎠ i=1 s ⎝s s s ⎠
r r-1
L(s ) = L(s) + L(s )
Cum L(sr-1) = (r-1). L(s), rezultă că L(sr) = rL(s).
Fie acum s, v, t, numere naturale. Există un număr r natural, astfel încât: sr ≤ vt < sr+1
Logaritmând într-o bază mai mare ca unu această inegalitate, obţinem:
r log s ≤ t log v < (r+1) log s
Împărţind în această dublă inegalitate cu t.log s, obţinem:
r log v r + 1
(*) ≤ <
t log s t
Pe de altă parte, aplicând funcţia L aceleiaşi inegalităţi, avem: L(sr) ≤ L(vt) ≤ L(sr+1)
sau r L(s) ≤ t L(v) ≤ (r+1) L(s),
r L ( v) r + 1
de unde (**) ≤ ≤
t L ( s) t
Scăzând inegalităţile (*) şi (**), obţinem:
L( v) log v 1
− <
L( s) log s t
Cum membrul întâi este independent de t, făcând pe t → ∞, va rezulta pentru orice s şi
L( v) log v
v numere naturale: = sau
L( s) log s
L ( v ) L ( s)
= = λ,
log v log s
adică L(n) = λlog n, cu λ ≥ 0.
1
Deci afirmaţia este dovedită pentru p1 = p2 = … pn =
n
Să presupunem că p1, p2, …, pn sunt numere raţionale pozitive a căror sumă este 1.
Putem presupune că am exprimat probabilităţile pi, i = 1, …n astfel încât să aibă
n
m
acelaşi numitor, adică: pi = i , i = 1,2,..., n; ∑ mi = m
m i =1

153
Definim acum sistemul de probabilităţi qij în modul următor:
i −1
1 ≤ j ≤ ∑ mk
⎧0 k =1
⎪⎪ 1 ⎛ i−1 ⎞ i
qij = ⎨ ⎜∑ k ⎟m + 1 ≤ j ≤ ∑ mk
⎪ mi ⎝ k =1 ⎠ k =1
⎪⎩ 0 i n

∑ mk ≤ j ≤ ∑ mk
k =1 k =1

1
Atunci π ij = p i q ij =
şi din proprietatea (IV) obţinem:
m
⎛1 1 1⎞ n
⎛ 1 1 1⎞
H ⎜ , ,..., ⎟ = H ( p1 , p2 ,..., pn ) + ∑ pi H ⎜ , ,..., ⎟ adică:
⎝m m m⎠ i =1 ⎝ mi mi mi ⎠
n n
λ log m = H ( p1 , p2 ,..., pn ) + ∑ pi λ log mi = H ( p1 , p2 ,..., pn ) + λ ∑ pi log( mpi )
i =1 i =1
n
sau: λ log m = H ( p1 , p2 ,..., pn ) + λ log m + λ ∑ pi log pi
i =1
Prin urmare, şi în cazul când pi, i = 1, 2, …, n sunt numere raţionale avem:
n
H ( p1 , p2 ,..., pn ) = − λ ∑ pi log pi
i =1
Dacă p1, p2, …, pn sunt numere reale pozitive cu suma unu, atunci orice număr real
este limita unui şir de numere raţionale. Pe de altă parte, H(p1, p2, …, pn) este continuă în
n
raport cu toate variabilele şi deci: H ( p1 , p2 ,..., pn ) = − λ ∑ pi log pi ,
i =1
n
pentru orice numere reale pi ≥ 0, i = 1, 2, …, n; ∑p
i =1
i =1

Să exprimăm acum cantitatea de informaţie conţinută într-un experiment A, relativ la


un experiment B.
Dacă s-ar efectua experimentul B am fi conduşi la cantitatea de informaţie H(B).
Efectuând în prealabil experimentul A, obţinem o anumită informaţie relativ la experimentul
B.
Prin definiţie, diferenţa H(B) – HA(B) o vom numi cantitatea de informaţie relativă la
experimentul B conţinută în experimentul A şi o vom nota I(A, B).
Deci: I(A, B) = H(B) – HA(B).
Am văzut că întotdeauna este satisfăcută inegalitatea HA(B) ≤ H(B) şi, deci,
I(A, B) ≥ 0.
Egalitatea HA(B) = H(B) (sau I(A, B) = 0) are loc dacă experimentele A şi B sunt
independente (deci, nu se influenţează reciproc).
Pe de altă parte, dacă experimentul A determină complet experimentul B, ceea ce
înseamnă că realizarea experimentului A conduce la dispariţia oricărei nedeterminări
referitoare la experimentul B, vom avea HA(B) = 0.
În acest caz, prin realizarea experimentului A se obţine o cantitate de informaţie
asupra experimentului B egală cu cantitatea de informaţie care s-ar obţine prin efectuarea
directă a experimentului B.
Aşadar, este adevărată dubla inegalitate: 0≤ I(A, B) ≤ H(B)
Acest lucru este deosebit de important în aplicaţiile practice, constituind o metodă
utilă de determinare a cantităţii de informaţie referitoare la rezultatul unui experiment.

154
Această metodă constă în efectuarea unei succesiuni de experimente auxiliare,
succesiune pe care o dorim cât mai scurtă, din motive economice, sau din motive ce ţin de
timpul de realizare a unei astfel de succesiuni.
⎛ B1..... B n ⎞
Mai exact, pentru a putea scoate în relief rezultatul experimentului B : ⎜ ⎟,
⎝ q 1..... q n ⎠
vom efectua k experimente auxiliare A1, A2, …Ak, fiecare dintre acestea putând avea m < n
rezultate posibile astfel încât ele să conţină cel puţin întreaga cantitate de informaţie pe care
am căpăta-o dacă am efectua direct experimentul B. Stabilirea numărului minim de experienţe
revine la a determina cel mai mic număr natural k astfel încât:
K
H(B ) ≤ H(A 1 , A 2 ,..., A N ) ≤ ∑ H(A J )
J =1
Metoda aceasta, deşi foarte utilă, nu spune nimic asupra modului de alegere a
experimentelor Aj, 1≤ j ≤ k, alegerea făcându-se ţinând seama de natura concretă a
experimentului B. Totuşi, dacă nu avem nici un fel de date referitoare la probabilităţile
evenimentelor ce intervin în experiment, putem să le considerăm ca fiind egal probabile, ceea
ce revine la a considera că experimentul respectiv are nedeterminare maximă, nedeterminare
ce va trebui înlăturată.
Se constată imediat că I(A, B) este simetrică, adică I(A, B) = I(B, A), deoarece:
H(A, B) = H(A) + HA(B) = H(B) + HB(A), de unde rezultă:
H(B) – HA(B) = H(A) – HB(A), adică tocmai egalitatea menţionată.
De asemenea, I(A, B) se mai poate exprima, dacă ţinem cont de entropia condiţionată,
prin relaţia: I(A, B) = H(A) + H(B) – H(A, B), de unde rezultă iarăşi imediat simetria
funcţiei I(A, B). Cu notaţiile utilizate anterior, din aceasta ultimă relaţie rezultă imediat, dacă
m n π ij
exprimăm H(A), H(B) şi H(A, B), că : I ( A ,B) = ∑ ∑πpi q j ij log
i =1 j =1

În cele ce urmează vom da câteva exemple care să ilustreze noţiunile introduse mai
sus.
Exemplu. Cineva şi-a fixat în gând un număr natural din mulţimea {1, 2, …, 63, 64}.
Acest număr urmează să fie descoperit (ghicit) punându-se întrebări la care interlocutorul
răspunde cu “da” sau “nu”. Care este numărul minim de întrebări ce urmează a fi puse şi cum
trebuiesc formulate întrebările pentru a descoperi numărul?
Soluţie Întrucât oricare din numerele 1, 2, …, 63, 64 pot fi alese, rezultă că avem de
înlăturat nedeterminarea următorului experiment:
⎛ A 1 A 2 ... A 63 A 64 ⎞
A :⎜ 1 1 1 1 ⎟ , unde Ai înseamnă că s-a fixat numărul 1 ≤ i ≤ 64.
⎜ ... ⎟
⎝ 64 64 64 64 ⎠
Pentru înlăturarea completă a acestei nedeterminări, este necesară o informaţie egală
cu:
H(A) = log 64 biţi
Pentru aceasta, organizăm o succesiune de experimente A1, A2, … Ak, fiecare din
experimentele respective fiind constituite din câte o întrebare bine formulată.
Prin fiecare întrebare pusă căutăm să înlăturăm o nedeterminare cât mai mare (dacă
este posibil maximă). Cum la fiecare întrebare se primeşte răspunsul “da” sau “nu” rezultă că
⎛ A1( j) A (2j) ⎞
fiecărei întrebări i se asociază experimentul: A j: ⎜ 1 1 ⎟ j = 1, 2, …, k,
⎜ ⎟
⎝ 2 2 ⎠
cu H(Aj) = log 2
k
Vom organiza atâtea experimente astfel încât H(A) ≤ H(A1, A2, …, Ak) ≤ ∑ H(A
j=1
j )

155
Cum H(Aj) = log 2, rezultă că putem determina pe k, din relaţia: log 64 ≤ k log 2 şi luăm ca
valoare a lui k, cel mai mic număr natural ce verifică această relaţie. Rezultă de aici că: k = 6.
Deci, din 6 întrebări bine puse putem descoperi numărul ales. Vom pune întrebările
acum astfel ca prin fiecare să înlăturăm maximul de nedeterminare. Aşadar, împărţim numrele
1, 2, …, 64 în două şi întrebăm dacă numărul ales este mai mare decât 32, stabilind astfel dacă
se află în prima jumătate sau în a doua. Cu jumătatea determinată se procedează la fel
ş.a.m.d., până când la a şasea întrebare se stabileşte cu exactitate numărul.
Generalizare. Să se determine numărul minim de întrebări care ne permite să aflăm
un număr ales la întâmplare din una dintre n valori admisibile.
⎛ A 1 A 2 ... A n ⎞
Atunci: A : ⎜ 1 1 1 ⎟
⎜ ... ⎟
⎝ n n n ⎠
Rezultă că avem nevoie de H(A) = log n biţi
Se organizează k experimente succesive, astfel încât H(A) ≤ H(A1, A2, …, An)
k
≤ ∑ H(A j )
j=1

Se obţine de aici valoarea lui k, (k – 1) log 2 < log n ≤ k log 2 sau


log n
k-1 < ≤ k ; (2k-1 < n ≤ 2k)
log 2
Exemplu. Să se determine numărul minim de întrebări prin care se pot descoperi 2
numere diferite din n numere şi cum trebuie să punem întrebările astfel încât să dăm răspunsul
după numărul minim de întrebări determinat.
Soluţie: Rezultatele experimentului A sunt în număr de Cn2
Aşadar, H(A) = log Cn2
k
Din H(A) ≤ H(A1, A2, …, Ak) ≤ ∑ H(A
j=1
j ),

obţinem: log Cn2 ≤ k log 2.


log Cn2
Deci, cel mai mic număr natural ce satisface condiţia: k ≥ va fi numărul
log 2
minim de întrebări cerute.
Şi de data aceasta se vor pune întrebările astfel încât să se înlăture maximul de
nedeterminare. Pentru aceasta, se împart cele Cn2 rezultate în două părţi egale.
Cu părţile obţinute se procedează analog, ţinând seama de faptul că la un moment dat
nu mai putem împărţi în două părţi egale, ci în părţi care diferă printr-o unitate.
Exemplu. Avem 25 de piese identice ca formă. Dintre acestea 24 au aceeaşi greutate,
iar una defectă, este mai uşoară decât fiecare din celelalte. Pentru descoperirea ei dispunem de
o balanţă fără greutăţi. Se pune întrebarea câte cântăriri trebuie să efectuăm cu o astfel de
balanţă şi cum trebuie organizate cântăririle pentru a descoperi piesa defectă.
Soluţie: Experimentul A al cărui rezultat trebuie determinat are 25 de rezultate
posibile şi este natural să considerăm aceste rezultate, echiprobabile.
⎛ A 1 A 2 ... A n ⎞
A :⎜ 1 1 1⎟
⎜ ... ⎟
⎝ 25 25 25 ⎠
Deci H(A) = log 25, adică pentru identificarea piesei defecte avem nevoie de o
cantitate de informaţie egală cu log 25 biţi.
Să efectuăm cântăriri cu o balanţă fără greutăţi. Fiecare cântărire constituie un
experiment Aj în care pot să apară câte trei rezultate posibile: balanţa este în echilibru, înclină
talerul din stânga sau înclină talerul din dreapta.
156
⎛ A ( j) A (2j) A (3j) ⎞
A j: ⎜ 1 ⎟
⎝ ps pe pd ⎠
Aşadar, efectuăm cântăriri succesive până când H(A) ≤ H(A1, A2, …, An) ≤
k
≤ ∑ H(A
j=1
j ) ≤ k log 3.

De aici, se obţine: log 25 ≤ k log 3; 25 ≤ 3k, adică k = 3 cântăriri.


Să efectuăm cântăririle astfel încât să obţinem maximum de informaţie într-o cântărire.
Aşezăm pe un taler m piese şi pe celălalt taler tot m piese, astfel balanţa va înclina
într-o parte în mod cert. Avem experimentul:
⎛ m m 25 − m ⎞
A ( m) :⎜⎜ m m 25 − 2m ⎟⎟
⎝ 25 25 25 ⎠
m m 25 − 2m
Pentru a înlătura o nedeterminare maximă va trebui ca probabilităţile , ,
25 25 25
să fie cât mai apropiate ca valoare. Acest lucru se întâmplă când m = 8; 25 – 2m = 9
Aşadar, aşezând pe fiecare taler câte 8 piese, la prima cântărire se poate ca balanţa să
fie în echilibru şi atunci piesa defectă se află între cele 9 necântărite. Pe acestea le împărţim în
3 grupe de câte 3 piese şi punem pe un taler o grupă, iar pe celălalt taler altă grupă. Dacă
talerul înclină în dreapta, să zicem, cum ştim că piesa defectă este mai uşoară, atunci ea se
află pe celălalt taler. Din cele trei piese situate pe talerul în care se află cea defectă, cântărim
câte una pe un taler şi în urma cestei cântăriri (a treia) determinăm exact care este piesa
defectă. Analog se raţionează cu celelalte situaţii care pot să apară.
Problema se poate rezolva, în general, când avem n piese identice şi printre ele se află
una defectă care este mai uşoară. În acest caz este nevoie de k cântăriri, k fiind determinat din
relaţia:
log n ≤ k log 3
Se organizează apoi cântăririle astfel încât să se înlăture la fiecare o nedeterminare
maximă.
Această problemă se poate formula şi rezolva ceva mai complicat şi în cazul când nu
mai avem informaţie asupra naturii falsului (mai uşoară sau mai grea) şi trebuie descoperită
piesa defectă şi totodată şi natura falsului.
Exemplu. Două unităţi economice realizează acelaşi produs pentru un beneficiar.
Produsul are două caracteristici în funcţie de care se apreciază calitatea lui de a fi
corespunzător sau necorespunzător. La unitatea U1, 95% din produse sunt corespunzătoare, iar
4% sunt necorespunzătoare din cauza caracteristicii X şi 4% din cauza caracteristicii Y.
La unitatea U2 tot 95% sunt produse corespunzătoare, însă 4,5% sunt
necorespunzătoare din cauza caracteristicii X şi 3,5% din cauza caracteristicii Y. Să se
stabilească la care dintre unităţi avem o nedeterminare mai mare asupra caracteristicilor
produsului.
Soluţie. Asimilăm caracteristicile X şi Y cu variabile aleatoare ce iau valorile 1 sau 0.
Atunci, obţinem următoarele repartiţii:

Y Y
X 1 0 X 1 0
1 0,03 0,01 0,04 1 0,030 0,015 0,045
U1: U2:
0 0,01 0,95 0,96 0 0,005 0,950 0,955

0,04 0,96 1 0,035 0,965 1

157
Rezultă de aici:
HU1 (x, y) = - (0,03 log 0,03 + 0,01 log 0,01 + 0,01 log 0,01 + 0,95 log 0,95)
HU 2 (x, y) = - (0,030 log 0,030 + 0,015 log 0,015 + 0,005 log 0,005 + 0,950 log 0,950)
HU1 (x, y) = 0,3549; HU 2 (x, y) = 0,3512.
Cum HU1 (x, y) > HU 2 (x, y) rezultă o nedeterminare mai mare la prima unitate.
Exemplu. Se ştie că două produse dintr-o sută au un anumit defect ascuns. Pentru
depistarea produselor defecte se foloseşte o anumită reacţie chimică care este totdeauna
pozitivă când produsul este defect, iar dacă produsul este corespunzător reacţia este tot atât de
frecvent pozitivă cât şi negativă.
Considerăm experimentul B care constă în a determina dacă un produs este
corespunzător sau nu, iar experimentul A constă în a determina rezultatul reacţiei. Se cere să
se calculeze entropiile H(B) şi H A (B) .
Soluţie.
⎛ B ( produs corespunzãtor) B2 ( produs corespunzãtor⎞
B: ⎜ 1 ⎟
⎝ 0,98 0,02 ⎠
De aici rezultă: H(B) = - 0,98 log 0,98 – 0,02 log 0,02 = 0,1415 biţi
⎛ A (reacþie pozitivã) A 2 ( reacþie negativã)⎞
A :⎜ 1 ⎟
⎝ 0,51 0,49 ⎠
când are loc B1 toate cazurile când are loc B2 49 + 2
( P(A1 ) = jumãtate din cazurile
100
+
100
=
100
=
= 0,51 şi, analog, P(A2))
49 2 49 49 2 2
Cum PA1 (B1) = ; PA1 (B2) = , rezultă HA 1 (B) = − log − log ≈ 0,2377,
51 51 51 51 51 51
HA 2 (B) = 0 , deoarece, dacă experimentul A are rezultatul A2, putem afirma cu certitudine că
experimentul B a avut rezultatul B1 (produs corespunzător).
Atunci: HA(B) = 0,51 HA 1 (B) + 0,49 H A 2 (B) = 0,51 ⋅ 0,2377 = 0,1212

6.3. Entropia relativă

Până acum am pus în evidenţă entropia corespunzătoare experimentelor cu o mulţime


finită de rezultate posibile.
Aceasta poate fi extinsă imediat pentru experimente cu o mulţime numărabilă de
rezultate. Cum în expresia entropiei intervin numai probabilităţi cu care apar rezultatele,
putem spune că s-a introdus noţiunea de entropie pentru variabilele aleatoare discrete, dat
fiind faptul că nu intervin valorile luate de variabilele aleatoare, ci numai probabilităţile cu
care sunt luate valorile respective. Acest lucru constituie de altfel şi un neajuns al noţiunii de
entropie, căci nu putem pătrunde în esenţa fenomenului, rămânând cu gradul de cunoaştere
doar la nivelul de organizare sau dezorganizare a fenomenului (sistemului) fizic urmărit.
În practică, însă, intervin adesea situaţii când avem de a face cu variabile aleatoare
continue ce caracterizează anumite experimente. În cele ce urmează, noi vom presupune că
este vorba de variabile aleatoare care admit densităţi de repartiţie şi pentru acestea vom căuta
să introducem noţiunea de entropie.
Fie variabila aleatoare X cu densitatea de repartiţie f(x). Atunci, după cum se ştie, dacă
∆x este suficient de mic, putem scrie egalitatea:
P(x ≤ X < x + ∆x) = f(x)∆x
Dacă admitem că X ia valori pe toată dreapta reală, R, să considerăm o diviziune a ei
prin punctele …, x-1, x0, x1, x2, …, xi, … (o mulţime numărabilă) astfel încât xi+1 – xi = ∆x, i
∈ Z. Să considerăm variabila aleatoare discretă X’, cu repartiţia:
158
⎛ ... x −1 x0 x1 x 2 ... xi ...⎞
X `: ⎜ ⎟ , unde pi = f(xi)∆x, i ∈ Z.
⎝ ... p-1 p0 p1 p2 ... pi ...⎠
Atunci, conform definiţiei lui Shannon, avem:

H ( X `) = − ∑ pi log pi
i =−∞
Obţinem:
⎧ ∞ ⎫ ⎧ ∞ ⎫
H ( X ) = lim H ( X `) = lim ⎨− ∑ f ( xi ) ∆x log [ f(xi ) ∆x] ⎬ = lim ⎨− ∑ f ( xi ) ∆x log f(xi) ) ∆x ⎬ +
∆x → 0 ∆x → 0⎩ i =−∞ ⎭ ∆x → 0⎩ i =−∞ ⎭
⎧ ∞ ⎫ +∞

+ lim ⎨− ∑ f ( xi ) ∆x log ∆x ⎬ = − ∫ f ( x ) log f ( x ) dx - lim log ∆x → + ∞


∆x → 0⎩ i =−∞ ⎭ ∆x → 0
−∞
Prin urmare, rezultă că entropia oricărei variabile aleatoare continue tinde către + ∞.
Acest lucru are şi un suport intuitiv, şi anume gradul de nedeterminare al unei variabile
aleatoare ce ia o infinitate de valori poate să fie oricât de mare. Pentru a înlătura acest
inconvenient s-a convenit introducerea unei măsuri relative a gradului de nedeterminare a
unei variabile aleatoare X în raport cu o variabilă aleatoare dată X0.
Variabila aleatoare X0 poate fi aleasă arbitrar şi, pentru a simplifica cât mai mult
expresia entropiei relative, vom lua pe X0 ca fiind repartizată uniform pe intervalul [a, b] de
lungime ε = b – a
În acest caz rezultă că densitatea de repartiţie a variabilei X0 este:
⎧⎪ 1
dacã x ∈ [ a,b]
g(x) = ⎨ ε , ceea ce conduce la:
⎪⎩0 î n rest,
b
1 1
H ( X 0 ) = − ∫ log dx − lim log ∆x = − log ε − lim log ∆x
a
ε ε ∆x → 0 ∆x → 0

Dacă alegem în plus ε = b – a = 1 şi dacă vom considera diferenţa:


+∞
Hε(X) = H(X) – H(X0) = - ∫ f ( x )log f ( x )dx,
−∞
constatăm că această diferenţă indică cu cât nedeterminarea variabilei aleatoare X cu
densitatea de repartiţie f(x) este mai mare (Hε(X) > 0) sau mai mică (Hε(X) < 0) decât
nedeterminarea unei variabile aleatoare repartizată uniform pe un interval [a, b] de lungime
ε = 1.
+∞

Prin definiţie, vom numi expresia Hε(X) = - ∫ f ( x) log f ( x)dx entropia relativă a
−∞
variabilei aleatoare X.
Să punem în evidenţă unele proprietăţi ale acestei entropii.
Propoziţie. Entropia relativă este independentă de valorile efective ale variabilei
aleatoare X.
Demonstraţie. Este suficient să arătăm că variabila aleatoare Y = X – a, a ∈ R, are
aceeaşi entropie relativă ca şi variabila aleatoare X. Într-adevăr,
∞ ∞
H ε (Y ) = H ε ( X − a ) = − ∫ f ( x − a ) log f ( x − a )dx = − ∫ f ( x ) log f ( x )dx = H ε ( X )
−∞ −∞
Observaţie. Se constată imediat că proprietatea este adevărată şi pentru variabile
aleatoare discrete.
Propoziţie. Dacă f(x, y) şi g(x, y) sunt densităţi de repartiţie bidimensionale, atunci
∞ ∞
f ( x, y )
are loc inegalitatea: ∫ ∫ f ( x , y ) log dxdy ≥ 0
−∞ −∞
g ( x , y )
159
Demonstraţie. Să arătăm mai întâi că oricare ar fi funcţia u(x, y) > 0, are loc
inegalitatea:
ln u( x , y ) 1 ⎛ 1 ⎞
log 2 u( x , y ) = ≥ ⎜1 − ⎟
ln 2 ln 2 ⎝ u( x , y ) ⎠
1 1
Într-adevăr, dacă u(x, y) ≥ 1 şi dacă t ∈ [1, u], atunci ≥ şi, de aici:
t u
u 1
dt 1 1 1
ln u = ∫ ≥ ∫ dt = ( u − 1) = 1 −
1
t uu u u
1 1
Dacă u ∈ (0, 1), atunci − ≥ − oricare ar fi t ∈ [u, 1] şi deci:
t u
1 1
dt 1 1 1
ln u = - ∫ ≥ − ∫ dt = − (1 − u ) = 1 −
u
t uu u u
Deci, are loc, totdeauna, inegalitatea menţionată.
Bazaţi pe această inegalitate, putem scrie:
∞ ∞ ∞ ∞ ∞ ∞
f ( x, y) 1 ⎛ g( x, y) ⎞ 1
∫ ∫ f ( x, y) log g( x, y) dxdy ≥ ln 2 −∞∫ −∞∫ f ( x, y)⎜⎝1 − f ( x, y) ⎟⎠ dxdy = ln 2 −∞∫ −∞∫ f ( x, y) dxdy -
−∞ −∞
∞ ∞
1
− ∫ −∞∫ g( x, y) dxdy = 0 ,
ln 2 −∞
întrucât f(x, y) şi g(x, y) sunt densităţi de repartiţie bidimensionale.
În plus, avem egalitate dacă f(x, y) = g(x, y)
Propoziţie
Dacă X şi Y sunt variabile aleatoare a căror entropie relativă compusă este Hε(X, Y),
atunci are loc inegalitatea: Hε(X, Y) ≤ Hε(X) + Hε(Y).

Demonstraţie
Să exprimăm membrul al doilea şi să folosim inegalitatea dovedită anterior:
∞ ∞
H ε ( X )+H ε (Y ) = − ∫ f1 ( x ) log f1 ( x )dx − ∫f 2 ( y ) log f 2 ( y )dy =
−∞ −∞
∞ ∞ ∞ ∞
⎡ f ( x, y ) ⎤
= −∫ ∫ f ( x, y )[ log f1 ( x ) + log f 2 ( y )] dxdy = - ∫ ∫ f ( x, y )⎢⎣log f ( y / x ) f 2 ( y )⎥ dxdy =
−∞ −∞ −∞ −∞ ⎦
⎡ ⎤
∞ ∞ ⎢ f ( x, y ) ⎥⎥
∞ ∞
⎡ f ( y / x) ⎤
= - ∫ ∫ f ( x, y )⎢log dxdy = ∫ ∫ f ( x, y )⎢log f ( x, y ) − log ) dxdy =
−∞ −∞ ⎢ f ( y / x) ⎥ −∞ −∞ ⎣ f 2 ( y ) ⎥⎦
⎢ f 2( y ) ⎥⎦

∞ ∞
f ( x, y )
= Hε ( X , Y ) + ∫ ∫ f ( x, y ) log f ( x ) f ( y ) dxdy
−∞ −∞ 1 2

Cum integrala dublă din ultima egalitate obţinută este totdeauna pozitivă (pe baza
proprietăţii anterioare) rezultă că: Hε(X, Y) ≤ Hε(X) + Hε(Y), adică tocmai inegalitatea
menţionată.

160
Se constată imediat că relaţia este identică cu cea găsită pentru entropia unui
experiment compus, cu un număr finit de rezultate.
Aşadar, relaţia este adevărată pentru entropia oricărei variabile aleatoare discrete. Din
această relaţie rezultă că şi în cazul discret avem egalitatea în cazul variabilelor aleatoare
independente.
Propoziţie
Pentru orice vector aleator (X, Y) sunt adevărate egalităţile:
Hε(X, Y) = Hε(X) + Hε(Y/X) = Hε(Y) + Hε(X/Y)
Demonstraţie
Din definiţia entropiei unui sistem de două variabile aleatoare (X, Y) rezultă:
∞ ∞ ∞ ∞
Hε ( X , Y ) = − ∫
−∞ −∞
∫ f ( x, y ) log f ( x, y )dxdy = ∫ ∫ f ( x, y ) log[ f ( x ) f ( y / x )]dxdy =
−∞ −∞
1

∞ ∞ ∞ ∞
= −∫ ∫ f ( x / y ) log f1 ( x )dxdy − ∫ ∫ f ( x, y ) log f ( y / x )dxdy = H ε ( X ) + H ε (Y / X ) ,
−∞ −∞ −∞ −∞
∞ ∞
unde am pus H ε (Y / X ) = − ∫ ∫ f ( x, y ) log f ( y / x )dxdy entropia relativă condiţionată a
−∞ −∞
variabilei aleatoare Y.
Analog se obţine şi cealaltă inegalitate.
Să mai dăm o propoziţie care să stabilească o legătură între entropia relativă a două
variabile aleatoare X şi Y.

Propoziţie
Dacă X este o variabilă aleatoare cu densitatea de repartiţie f(x), iar Y este o variabilă

aleatoare a cărei repartiţie este caracterizată de densitatea: g ( y ) = ∫ c( x, y ) f ( x )dx ,
−∞
unde

c(x,y) este o funcţie pondere care satisface condiţiile: c(x, y) ≥ 0,


∞ ∞

∫ c( x, y )dx = ∫ c( x, y )dy = 1 , atunci: Hε(Y) - Hε(X) ≥ 0.


−∞ −∞

Demonstraţie
Să exprimăm diferenţa celor două entropii relative:
∞ ∞ ∞
Hε(Y) - Hε(X) = ∫
−∞
f ( x ) log f ( x )dx − ∫ ∫ c( x, y ) f ( x ) log g( y )dxdy =
−∞ −∞
∞ ∞ ∞ ∞
f (x) c( x , y ) f ( x )
= ∫ ∫ c( x , y ) f ( x ) log dxdy = ∫ ∫ c( x , y ) f ( x ) log dxdy
−∞ −∞
g( y ) −∞ −∞
c( x , y ) g ( y )
Întrucât a(x, y) = c(x, y) şi b(x, y) = c(x, y) g(y) sunt densităţi de repartiţie
bidimensionale, pe baza unei propoziţii date anterior rezultă că:
∞ ∞
c( x , y ) f ( x )
∫−∞−∞∫ c( x, y ) f ( x ) log c( x, y ) g( y ) dxdy ≥ 0
şi deci Hε(Y) - Hε(X) ≥ 0.
Pentru două experimente (deci şi pentru două variabile aleatoare discrete) s-a introdus
noţiunea de cantitate de informaţie continuă în experimentul B relativ la experimentul A ca
fiind dată de: I(A, B) = H(A) – H(A/B) .
Dacă acum considerăm două variabile aleatoare X şi Y cu densitatea de repartiţie
comună f(x, y), atunci definim cantitatea de informaţie conţinută în variabila aleatoare Y
relativ la variabila aleatoare X ca diferenţa dintre entropia relativă Hε(X) şi entropia relativă

161
condiţionată Hε(X/Y). Notând cu I(X, Y) această cantitate de informaţie, atunci I(X, Y) =
Hε(X) - Hε(X/Y).
Această cantitate de informaţie se bucură de o proprietate importantă exprimată în
propoziţia de mai jos.
Propoziţie
Dacă X, Y sunt două variabile aleatoare continue (care au densităţi de repartiţie)
atunci,
I(X, Y) = Hε(X) - Hε(X/Y) este independentă de ε.
Demonstraţie

H ε ( X ) = − ∫ f1 ( x ) log f1 ( x )dx − log ε


−∞
∞ ∞
Hε ( X / Y ) = − ∫ ∫ f ( x, y ) log f ( x / y )dxdy − log ε , atunci:
−∞ −∞
∞ ∞ ∞

I ( X , Y ) = − ∫ f1 ( x ) log f1 ( x )dx − log ε + ∫ ∫ f ( x, y ) log f ( x / y )dxdy + log ε =


−∞ −∞ −∞
∞ ∞ ∞ ∞
f (x / y) f ( x, y )
= ∫−∞−∞∫f ( x , y ) log
f1 ( x )
dxdy = ∫ ∫ f ( x , y ) log
−∞ −∞
f 1 ( x ) f 2 ( y )
dxdy

Se observă că relaţia este întrutotul analoagă cu cea obţinută pentru variabila aleatoare
discretă şi, în plus faţă de entropia relativă, cantitatea de informaţie conţinută în Y relativ la X
are un caracter absolut.
Exemplu. Să se calculeze entropia relativă a unei variabile aleatoare exponenţial
negative de parametru λ şi a unei variabile aleatoare normale N(0, σ).
Soluţie Dacă X este variabilă aleatoare repartizată exponenţial negativ, atunci
⎧λe − λx , x ≥ 0, λ > 0
are densitatea: f ( x ) = ⎨ .
⎩ 0 , x<0
∞ ∞

H ε ( X ) = − ∫ λe − λx log λe −λx dx = − λ log λ ∫ e − λx dx +


0 0

e
+ λ2 log e ∫ xe − λx dx = log
0
λ
y2
1 − 2
Y este normală N(0, σ) dacă are densitatea f ( y ) = e 2σ , y ∈ R
σ 2π
⎛ 1 − 2⎞
2 2
∞ y y
1 − 2
⎜ 2σ ⎟
Atunci: H ε (Y ) = − ∫ e 2σ
log⎜ e ⎟ dy =
−∞ σ 2π ⎝ σ 2π ⎠
∞ y2 ∞ y2
1 1 1
( )
− 2 − 2
=−
σ 2π
log
σ 2π −∞∫ e 2σ dy +
2σ 2π
3
log e ∫ y 2 e 2σ dy = log 2πe σ
−∞
Exemplu. Să se arate că dintre toate repartiţiile cu entropie dată, repartiţia normală N
(o,σ) are cea mai mică dispersie.
Soluţie. Să determinăm densitatea de repartiţie cu cea mai mică dispersie:

σ2 = ∫ x f ( x )dx ,
2
cu condiţiile:
−∞
∞ ∞
H ε ( X ) = − ∫ f ( x ) log f ( x )dx şi ∫ f ( x )dx = 1 .
−∞ −∞

162
Alcătuim funcţia: φ ( f , x ) = x 2 f ( x ) − λ1 f ( x ) log f ( x ) + λ2 f ( x ) şi, din ecuaţia lui
∂φ λ
Euler (calculul variaţional): = x 2 − λ1 log f ( x ) − 1 + λ2 = 0 obţinem:
∂f ln 2
⎛ x 2 ln 2 ⎞
f ( x ) = exp( λ2 ln 2 − λ1 ) exp⎜ ⎟
⎝ λ1 ⎠
∞ ∞
Substituind f(x) în H ε ( X ) = − ∫ f ( x ) log f ( x )dx şi ∫ f ( x )dx = 1 , obţinem:
−∞ −∞

ln 2
= −π exp( 2 H ε ln 2 − 1) şi exp( λ2 ln 2 − λ1 ) = exp( 2H ε ln 2 − 1 )
λ1
Determinând λ1 şi λ2 şi înlocuind în f(x) avem:
1 ⎛ x2 ⎞
f ( x ) = exp( 2 H ε ln 2 − 1 exp[-π exp(2H ε ln 2 − 1) x 2 ] = exp⎜ − ⎟
σ 2π ⎝ 2σ 2 ⎠

( )
−1
unde: σ = 2π exp( 2 H ε ln 2 − 1
Exemplu. Să se determine cantitatea de informaţie I(X, Y) pentru vectorul aleator (X,
Y) cu densitatea de repartiţie:
1 ⎡ 1 ⎛ x2 xy y2 ⎞ ⎤
f ( x, y ) = exp ⎢− 2) ⎜
⎜ − 2 ρ + ⎟ ,
2 ⎟⎥
2πσ xσ y 1 − ρ 2 ⎢⎣ 2 (1 − ρ ⎝ σ 2
x σ σ
x y σ y ⎠⎥

unde ρ este coeficientul de corelaţie al variabilelor X şi Y.
∞ ∞
f ( x, y )
Soluţie. I( X, Y ) = ∫ ∫ f ( x, y) log dxdy
−∞ −∞
f1 ( x )f 2 ( y )
Înlocuindu-se în această relaţie f(x, y), f1(x), f2(x) (f1, f2 densităţile de repartiţie
marginale), se obţine: I(X, Y) = - log 1 − ρ 2

6.4. Transmiterea informaţiei. Codificarea

Oricare ar fi natura unui mesaj, el nu poate fi transmis fără existenţa unui anumit
purtător material al mesajului, care serveşte drept semnal de transmitere a informaţiei
conţinute în mesajul respectiv.
Semnalele purtătoare de informaţii sunt emise de o anumită sursă de semnale, se
propagă printr-un anumit mediu, numit canal de comunicaţie şi ajung la destinaţie unde sunt
recepţionate. Prin intermediul semnalelor recepţionate destinatarul ia cunoştinţă de informaţia
transmisă.
O particularitate esenţială a semnalului este independenţa informaţiei pe care o
transmite faţă de energia consumată pentru producerea lui. Desigur, pentru emiterea
semnalului este necesar un minim de energie, dar cantitatea de informaţie nu depinde de
valoarea acestui minim.
O ştire de importanţă capitală poate fi transmisă cu ajutorul unui semnal extrem de
mic şi de slab.
Numai conţinutul semnalului, şi nu energia lui, determină cantitatea de informaţie pe
care o poartă.

163
Orice sistem de comunicaţie, de transmitere a informaţiei – indiferent de natura lui –
se încadrează în schema generală de mai jos:

{X; x, p(x)} C {Y; y, p(y)}


S X C Y R
(sursă) (canal) (recepţie)

P(Z/X) H(X) = H(X/Y)


P
(perturbaţii)

Informaţia se transmite cu ajutorul unor semnale, emise de o sursă. Semnalele se pot


transforma prin codificare în alte semnale, a căror transmisie este mai avantajoasă; ele se
propagă pe un canal de comunicaţie, în care pot suferi diferite perturbaţii (distorsionări) şi
ajung la recepţie, unde cu ajutorul unui traducător se face decodificarea, obţinându-se în final,
semnalele transmise iniţial, care poartă informaţia transmisă de sursă şi care a fost perturbată
pe canal.
Vom defini matematic un sistem de transmitere a informaţiei (în cazul finit).
Definiţie. Numim sistem de transmitere a informaţiei sistemul format din două
mulţimi finite X, Y şi o probabilitate p(y/x) definită pe Y pentru orice x ∈ X, pe care-l vom
nota {X, p(y/x), Y}.
Mulţimea X se numeşte mulţimea semnalelor care se emit; mulţimea Y se numeşte
mulţimea semnalelor care se recepţionează; probabilitatea p(y/x) se numeşte probabilitatea de
recepţionare condiţionată de ceea ce se emite.
Definiţie. Fiind dată probabilitatea p(x) pentru fiecare x ∈ X, numită probabilitate de
emisie, ∑ p( x ) = 1 , câmpul de probabilitate {X, x, p(x)} se numeşte sursa sistemului {X,
x ∈X
p(y/x), Y} de transmitere a informaţiei.
Definiţie. Fiind date sistemul de transmitere a informaţiei sistemului {X, p(y/x), Y}
şi probabilitatea p(x) pe X, se numeşte recepţia sistemului câmpul de probabilitate {Y, y,
p(y)} unde probabilitatea p(y) de recepţionare a semnalelor y se obţine conform relaţiei:
p( y ) = ∑ p( x ) p( y / x )
x ∈X
Definiţie. Mediul prin care se propagă semnalele de la sursă la recepţie se numeşte
canalul sistemului de transmitere a informaţiei.
A cunoaşte canalul de comunicaţie al unui sistem înseamnă a cunoaşte probabilităţile
P(y/x) pentru toate semnalele x ∈ X, y ∈ Y. Dacă p(y/x) ia numai valorile 0 sau 1 pentru orice
x ∈ X, y ∈ Y canalul prezintă perturbaţii.
P(Y/X) = (p(y/x))x∈X/y∈Y; H ( X ) = − ∑ p( x ) log p( x ) reprezintă cantitatea de
x ∈X
informaţie transmisă la sursă.
H ( X / Y ) = − ∑ ∑ p( x , y ) log p( x / y ) reprezintă cantitatea de informaţie care se
x ∈X y ∈Y

pierde pe canal.
H(X) – H(X/Y) reprezintă cantitatea de informaţie care se recepţionează.
Din proprietăţile entropiei, rezultă:
0 ≤ H(X) – H(X/Y) ≤ H(X)
Dacă H(X/Y) = 0 înseamnă că pe canal nu se pierde nimic din informaţia transmisă.
Dacă H(X) = H(X/Y) înseamnă că pe canal perturbaţia este atât de puternică încât la
recepţie nu se primeşte nici un fel de informaţie.
În condiţii reale, în mod curent: 0 < H(X) – H)X/Y) < H(X).

164
Definiţie. Valoarea maximă a diferenţei H(X) – H(X/Y) pentru toate probabilităţile p
la sursă o notăm cu C şi o vom numi capacitatea canalului de transmitere.
C = max {H(X) – H(X/Y)}
p

Cantitatea H(X) – H(X/Y) reprezintă cantitatea de informaţie obţinută în medie la


trecerea prin canal a unui semnal al sursei şi poartă numele de viteză de transmitere a
informaţiei.
Codificarea. În general, semnalele x ∈ X nu se transmit direct, ci codificat.
Asocierea la un anumit sistem de semnale purtătoare de informaţie a unor succesiuni
de alte semnale se numeşte codificare. Codificarea se realizează cu ajutorul unei mulţimi de
semnale simple, mulţime cu nu prea multe elemente, care sunt înlănţuite în anumite
succesiuni.
În cazul telegrafului, în mod uzual se întrebuinţează două tipuri de codificare:
codificarea Morse - codificare mai veche – şi codificarea Baudot.
În general, codificarea înseamnă înlocuirea fiecărui semnal dintr-o anumită mulţime,
printr-o succesiune de o anumită lungime, de semnale numite semnale simple. Semnalele
simple pot fi chiar semnalele de la care am plecat. În acest caz, codificarea semnalelor dintr-o
anumită mulţime, înseamnă înlocuirea fiecărui semnal printr-o succesiune, de o anumită
lungime, de semnale din aceeaşi mulţime iniţială. O codificare este cu atât mai avantajoasă, cu
cât sunt mai reduse atât numărul semnalelor simple care servesc la codificare, cât şi lungimea
succesiunilor de semnale simple.
În cazul în care se face codificarea, la recepţie trebuie să se efectueze decodificarea
corespunzătoare.
Necesitatea introducerii codificării, ţine în primul rând de natura concretă a sistemului
de transmitere a informaţiei. Informaţia este purtată de un anumit tip de semnale, iar
sistemului de transmitere îi sunt proprii alte tipuri de semnale şi ca atare este impusă
realizarea unei corespondenţe între semnalele iniţiale şi semnalele care urmează a fi
transmise.
În al doilea rând, codificarea este impusă de prezenţa perturbaţiei pe canal, care
diminuează cantitatea de informaţie transmisă, ceea ce impune codificarea.
Vom considera o codificare în care drept semnale simple se consideră tot semnale din
mulţimea X, un semnal x ∈ X înlocuindu-se printr-un şir de semnale tot din mulţimea X.
Pentru a lămuri lucrurile, să considerăm un sistem de transmitere a informaţiei
{X, p(y/x), Y}.
Când transmitem un şir de semnale x ∈ X, recepţionăm un şir de semnale y ∈ Y.
Să notăm cu U mulţimea tuturor şirurilor de lungime n formate cu semnale din X şi cu
mulţimea tuturor şirurilor de lungime n formate cu semnale din Y.
u∈ U ⇔ u = (x1, x2, …, xn), (x1, x2, …, xn) ∈ X x X x … x X;
ν ∈ V ⇔ ν = (y1, y2, …, yn), (y1, y2, …, yn) ∈ Y x Y x … x Y
Introducem o probabilitate p(v/u) definită pe V, condiţionată de elementele u ∈ U, în
felul următor:
n
p( v / u) = π p( y j / x j ) ; p(v/u) reprezintă probabilitatea ca să se recepţioneze
j =1

şirul de semnale v, dacă s-a emis şirul de semnale u; această probabilitate este complet
determinată de p(y/x).
Putem acum introduce următoarea definiţie.
Definiţie. Fiind dat sistemul de transmitere a informaţiei {X, p(y/x), Y} se numeşte
extensie de lungime n, sistemul {U, p(v/u), V} unde U reprezintă mulţimea tuturor şirurilor u,
de lungime n de semnale x ∈ X, V reprezintă mulţimea tuturor şirurilor v, de lungime n, de
n
semnale y ∈ Y, iar p(v/u) = π p( y
j =1
j / xj)

165
Definiţie. Trecerea de la sistemul de transmitere a informaţiei {X, p(y/x), Y} la
sistemul {U, p(v/u), V} se numeşte codificare.
Definiţie. Legea potrivit căreia se asociază semnalelor x ∈ X şiruri u ∈ U se numeşte
cod.
Legătura între capacitatea sistemului {X, p(y/x), Y} şi capacitatea sistemului
{U, p(v/u), V} este dată de:
Teoremă. Fie {X, p(y/x), Y} un sistem de transmitere a informaţiei, al cărui canal are
capacitatea C. Extensia de lungime n are capacitatea n C.
Nu vom da demonstraţie acestei teoreme. Vom da schema sistemului de transmitere
{U, p(v/u), V}:

⎧n ⎫ ⎧n ⎫
⎨ x X j ; ( x1 ,..., x n ), p( x1 ,..., x n )⎬ nC ⎨ x Y j ; ( y1 ,..., y n ), p( y1 ,..., y n )⎬
⎩ j =1 ⎭ ⎩ j =1 ⎭
S C R
(sursă) (canal) (recepţie)

P(v/u) H(U) - H(U/V)


P
(perturbaţii)

Codificarea realizată mai sus se face înlocuind fiecare semnal x ∈ X cu


u = (x1, x2,…,xn) ∈ U.
Dar, în general, fiecare semnal din x ∈ X se înlocuieşte cu o succesiune de o anumită
lungime de semnale din A = {a1, a2, …, aa} pe care le numim semnale simple.
Un mesaj codificat trebuie să fie decodificat, adică este necesar să se poată şti, atunci
când se recepţionează un anumit şir lung de semnale simple, unde se termină subşirul
corespunzător semnalului iniţial următor.
O cale este aceea de a impune condiţia ca semnalelor iniţiale să li se ataşeze şiruri de
semnale simple, care au aceeaşi lungime. În acest caz, cunoscându-se această lungime
comună, decodificarea se face extrem de uşor, prin împărţirea şirului recepţionat în blocuri
având o lungime egală cu lungimea dată. Aceste coduri se numesc uniforme. (Acest caz îl
întâlnim în telegrafie, când se întrebuinţează codificarea Baudot).
Sunt posibile şi codificări neuniforme, în care diversele şiruri de semnale simple care
se ataşează semnalelor iniţiale au lungimi diferite.
Pentru unele codificări neuniforme se cere, însă, ca nici un şir de semnale simple
ataşat unui semnal iniţial să nu coincidă cu începutul unui alt şir mai lung de semnale simple,
pentru a nu avea dificultăţi la decodificare.
Dăm mai jos metoda lui Fano de codificare neuniformă, cu ajutorul a două semnale
simple, A = {a1, a2,}, codificare care se numeşte binară (se poate pune a1 = 1, a2 = 0).
Pentru a ataşa fiecărui semnal iniţial un şir de semnale simple se procedează astfel:
Se ataşează mulţimea X = {x1, x2,…, xn} într-o coloană, în ordinea descrescătoare a
probabilităţilor p(xi), 1 ≤ i ≤ N, de apariţie. Împărţim acum coloana de semnale în două grupe,
grupa de sus şi grupa de jos, în aşa fel ca probabilitatea unui semnal iniţial de a aparţine la
grupa de sus să fie foarte apropiată de probabilitatea ca acest semnal să aparţină grupei de jos.
Pentru semnalele din grupa de sus folosim pe a1 ca prim semnal simplu, iar pentru
semnalele din grupa de jos folosim pe a2 ca prim semnal simplu.
Atât grupa de sus, cât şi cea de jos le împărţim, la rândul lor, în două subgrupe, având
probabilităţile totale cât mai aproape între ele.
Pentru subgrupa de sus folosim ca cel de al doilea semnal pe a1, iar pentru subgrupa de
jos folosim pe a2 ca al doilea semnal simplu. Fiecare din aceste subgrupe se împarte din nou
în alte două subgrupe, şi aşa mai departe, până când în fiecare grupă rămâne câte un singur
166
element, epuizând astfel semnalele iniţiale. Şirurile de semnale simple ataşate în acest mod
semnalelor iniţiale realizează codificarea. Codificarea realizată în acest mod este neuniformă,
iar şirurile de semnale simple ataşate semnalelor iniţiale, îndeplinesc condiţia de a nu
cuprinde în ele nici un şir de lungime mai mică ataşat unui alt semnal iniţial.
Să codificăm semnalele X = {x1, x2,…, x12} cu ajutorul cărora transmitem o cantitate
de informaţii H(X). Fiecărui semnal iniţial îi corespunde o probabilitate bine determinată de
întrebuinţare în transmiterea cantităţii de informaţie respective. Semnalele iniţiale,
probabilităţile p(xi), 1 ≤ i ≤ 12, împărţirea pe grupe şi şirurile de codificare apar în tabelul de
mai jos.

S Probabil. Împărţirile succesive pe grupe Şirurile de codificare


emnale p(xi)
iniţiale
x1 0,28 I a1 a 1
x2 0,22 I II a1 a2
x3 0,16 I a2 a1 a1
x4 0,09 I II a2 a1 a2
x5 0,08 I a2 a2 a1 a1
x6 0,05 II I II a2 a2 a1 a2
x7 0,03 II I a2 a2 a2 a1 a1
x8 0,03 II I II a2 a2 a2 a1 a2
x9 0,03 II I a2 a2 a2 a2 a1
x10 0,01 II I a2 a2 a2 a2 a2 a1
x11 0,01 II I a2 a2 a2 a2 a2 a1
x12 0,01 II a2 a2 a2 a2 a2 a2

6.5. Cantitatea de informaţie conţinută într-un model input-output şi variaţia ei prin


agregare

Să considerăm modelul dat de ecuaţiile de balanţă în expresie valorică:


m
X i = ∑ x ij + f i , 1 ≤ i ≤ m,
j =1

unde xij sunt fluxurile interramuri, iar fi produsul final al ramurii i.


Dacă luăm în considerare şi cadranul III în care apar elemente de valoare nou creată şi
adăugată şi notăm cu ykj mărimea inputului k absorbit de ramura j, obţinem alte relaţii de
balanţă:
m m'
Xj = ∑x + ∑ ij J k , 1 ≤ j ≤ m,
i =1 k =1
unde m’ este numărul inputurilor referitoare la cadranul III. Introducând coeficienţii
x ij
cheltuielilor directe aij = , 1 ≤ i, j ≤ m, primele relaţii de balanţă devin:
Xj
m
X i = ∑ a ij X j + f i , 1 ≤ i ≤ m, sau în scriere matriceală:
j =1

X = AX + f ; X = (I – A)-1 f
Luând în considerare şi coeficienţii cheltuielilor directe referitoare la elementele
cuprinse în cadranul III :
y kj
b ij = , 1 ≤ k ≤ m ' , 1 ≤ j ≤ m, din al doilea grup de relaţii de balanţă, obţinem:
Xj
167
m m'

∑a + ∑b
i =1
ij
k =1
kj = 1, 1 ≤ j ≤ m
m
Dacă punem: y k = ∑ y kj , 1 ≤ k ≤ m' pentru cererea totală a tuturor ramurilor
j =1

din inputul k referitor la cadranul III, obţinem relaţia Y = BX.


Vectorul Y se poate exprima acum cu ajutorul matricilor A, B şi a vectorului f, astfel:
Y = B(I – A) –1 f
În vederea efectuării de analize şi prognoze este necesară cunoaşterea coeficienţilor ce
constituie elementele matricilor A şi B, cunoscuţi sub numele de coeficienţi input – output.
Valenţele analizei informaţionale pe baza modelului input – output sunt valorificate
integral la modelele macroeconomice, când intervine frecvent problema omogenităţii
produselor. Dar, şi pentru astfel de situaţii, este necesar să agregăm unele ramuri, agregare
care conduce la un model de dimensiune mai mică, adecvat unor analize eficiente şi rapide.
Simplificând schema modelului de balanţă, obţinem:
⎛ U f ⎞
⎜ ⎟
⎜ ( mxm) ( mxn ) ⎟ ,
⎜ V O ⎟
⎜ ⎟
⎝ ( m' xm) ( m' xn ) ⎠
unde matricea U (cadranul I) conţine fluxurile interramuri, f(cadranul II) conţine produsul
final cu componentele sale (consum individual, consum social etc.), iar V(cadranul III)
conţine amortizări, retribuţii etc.
În condiţiile în care ne interesează doar relaţiile dintre ramuri, eliminăm produsul final
şi păstrăm matricea:
⎛ U O ⎞
⎜ ⎟
⎜ ( mxm) ( mxm' ) ⎟ ,
⎜ V O ⎟
⎜ ⎟
⎝ ( m' xm) ( m' xm' ) ⎠
care este o matrice pătratică de ordinul m+m’, asociată relaţiilor de balanţă:
m

∑x
j =1
ij = X i − fi , 1 ≤ i ≤ m
m

∑y
j =1
kj = y k , 1 ≤ k ≤ m'
m
Dacă împărţim în ambii membri aceste m+m’ relaţii prin ∑X
h =1
h , atunci toţi termenii

din membrul stâng vor lua valori între 0 şi 1 şi vom putea constitui cu ajutorul lor o repartiţie
bidimensională. Vom nota astfel:
x ij
pij = m , 1 ≤ i, j ≤ m , fluxurile interramuri măsurate ca fracţiuni ale
∑ Xh h =1
outputului (sau inputului) tuturor ramurilor,
y kj
p m+ k , j = m , 1 ≤ k ≤ m' , 1 ≤ j ≤ m
∑ Xh h =1
inputurile corespunzătoare cadranului III, măsurate în fracţiuni de inputuri totale. Vom
nota în plus: pij = 0, 1≤ i ≤ m+m’; m+1 ≤ j ≤ m+m’

168
m+ m' m + m '
Deoarece pij ≥ 0, 1 ≤ i, j ≤ m + m' º i ∑ ∑p ij = 1,
i=1 j =1

am definit astfel repartiţia unui vector aleator (φ1 , φ2 ) . Folosind membrul drept al relaţiilor de
balanţă, se obţin repartiţiile marginale ale componentelor Φ1 şi Φ2:
X − fi
pi • = mi , 1 ≤ i ≤ m
∑ Xh
h =1

yk
pm+ k ,• = m , 1 ≤ k ≤ m' ,
∑X h
h =1
care sunt, respectiv, cererea totală intermediară de produse din ramura i şi inputul k,
corespunzător cadranului III, raportate la inputul total;
⎧ Xj
⎪⎪ m , 1≤ j≤ m
p•j = ⎨ ∑ X h
⎪ h =1
⎪⎩ 0, m + 1 ≤ j ≤ m + m'
Vom pune, pentru uniformitatea scrierii, m+m’ = n.
Cu aceste relaţii, coeficienţii cheltuielilor directe se pot exprima prin:
xij pij
aij = = , 1 ≤ i, j ≤ m ,
Xj p• j
iar coeficienţii cheltuielilor directe referitoare la elementele din cadranul III.
ykj pm+ k , j
bkj = = , 1 ≤ k ≤ m'; 1 ≤ j ≤ m'
Xj p• j
În procesul de agregare să considerăm că cele m+m’ = n inputuri (outputuri) se
comasează în M+M’ = G inputuri (outputuri), M< m, M’ < m’.
Vom nota Sg mulţimea ramurilor iniţiale cuprinse în ramura g din tabelul agregat
(1 ≤ g ≤ G).
Fluxurile interramuri din tabelul agregat vor fi:
x gh = ∑ ∑ x ij ,
i∈S g j ∈S h

iar coeficienţii cheltuielilor directe:


∑ ∑ xij Xi
∑ ∑a = ∑ ∑ a ij w j ,
i∈S g j ∈S h
a gh = =
∑X ∑ X j i∈S g j∈Sh
ij
j i∈S g j ∈S h
j ∈S h j ∈S h

Xj
unde: w j =
∑X
j ∈S h
j

Xi
Deci, în general: wi = , i ∈ Sg , 1≤g≤M
∑Xj
j ∈ Sh

(ponderea ramurii i în outputul corespunzător grupului de ramuri Sh). În mod analog se


procedează cu coeficienţii cheltuielilor directe corespunzători cadranului III:
Transformând tabelul agregat pentru a obţine o repartiţie bidimensională, vom avea:

169
Pgh = ∑∑p
i∈S g j ∈S h
ij , 1 ≤ g, h ≤ G

G
Pg• = ∑ Pgh = ∑p i• , 1 ≤ g ≤ G
h =1 i∈S g

G
P•h = ∑ Pgh = ∑p •j , 1 ≤ h ≤ G
g =1 j ∈S h
acestea reprezentând, respectiv, fluxul de la Sg la Sh, fluxul total cu originea în Sg, fluxul total
ce intră în Sh, toate exprimate în fracţiuni ale inputului (outputului) total.
Să considerăm acum cantitatea de informaţie conţinută într-un model input-output, ce
poate fi exprimată prin intermediul entropiei asociate repartiţiei bidimensionale.
Fie I0 cantitatea de informaţie conţinută în tabelul input-output iniţial, definită prin
intermediul entropiei asociate repartiţiei (pij)i,j ∈1, n
n n pij
I 0 = ∑ ∑ pij log
i =1 j =1 pi• p• j
După cum s-a demonstrat, avem: 0 ≤ I 0 ≤ log n 2 , cu semnificaţiile cunoscute
pentru cazurile extreme.
Fie IA informaţia conţinută în modelul agregat (Pgh) 1 ≤ g, h ≤ G :
G G Pgh
I A = ∑ ∑ Pgh log
g =1 k =1 Pg• P•h
Notând: γ gj = ∑p
i∈S g
ij , 1 ≤ g ≤ G, 1 ≤ j ≤ n

(fluxurile din ramura agregată Sg la ramurile individuale j, măsurate în fracţiuni de output


agregat al ramurilor),
Cih = ∑ pij , 1 ≤ h ≤ G, 1 ≤ i ≤ n
j ∈S h
(fluxurile de la ramura i la ramura agregată Sh, exprimate ca mai sus) se obţin imediat
relaţiile:
G

∑γ
g =1
gj = p• j ; ∑γ
j∈S h
gj = Pgh

∑ Cih = Pgh ;
i∈S g
∑C
h=1
ih = pi•
Se constată că ponderea de informaţie într-un proces de agregare este:
G G G G
I 0 − I A = ∑ P•h I •h + ∑ Pg• I g• + ∑ ∑ Pgh I gh
h =1 g =1 g =1 h =1
unde I.h este efectul coloană al ramurii agregate Sh:
G P γ gj γ gj / Pgh
I •h = ∑ ∑
gh
log
g =1 P• h j ∈S h Pgh p• j / P•h
Ig. este efectul linie al ramurii agregate Sg:
G P
Cih Cih / Pgh
I g• = ∑ ∑
gh
log ,
h =1 Pg • i∈S g Pgh pi• / Pg•
iar Igh este efectul celular ce se referă la fluxurile componentelor ramurii agregate Sg la
componentele ramurii agregate Sh:
pij pij / Pgh
I gh = ∑ ∑ log
i∈S g j ∈S h Pgh (
γ gj / Pgh Cih / Pgh )( )
I.h, Ig., Igh pot fi interpretate ca informaţii medii ale mesajelor indirecte. Deoarece apar cu
coeficienţi negativi în ecuaţia de descompunere a informaţiei, rezultă că I0 – IA ≥ 0 şi, deci, în
procesul de agregare informaţia scade.
170
Capitolul 7

ELEMENTE DE TEORIA SELECŢIEI ŞI ESTIMAŢIEI

7.1. Noţiuni generale

Orice cercetare statistică porneşte de la o colectivitate sau populaţie alcătuită din


elemente sau indivizi care au o caracteristică generală şi care se diferenţiază prin anumite
atribute.
Elementele colectivităţii (populaţiei) le vom numi unităţi.
În studiul colectivităţilor statistice, în majoritatea cazurilor suntem nevoiţi să studiem
numai părţi din întreaga colectivitate. Ori, în acest caz, se pune în mod natural întrebarea dacă
concluziile ce le obţinem concordă cu rezultatul ce l-am obţine dacă studiem întreaga
populaţie. Apare astfel problema de a studia modul în care valorile tipice (pe baza cărora
tragem concluzii) ale colectivităţii parţiale investigate pot furniza informaţii asupra valorilor
tipice ale întregii colectivităţi.
Vom presupune, în cele ce urmează, că urmărim o anumită caracteristică a
colectivităţii generale şi că această caracteristică este descrisă de o variabilă aleatoare X
definită pe un câmp de probabilitate {Ω, K, P}, în care elementele mulţimii Ω sunt tocmai
elementele colectivităţii generale, K este un corp borelian de părţi ale lui Ω, iar P este o
probabilitate pe K.
După cum se ştie, dacă Ω este finită, atunci K coincide cu mulţimea părţilor lui Ω, iar
P este o repartiţie discretă uniformă pe Ω.
Faptul că suntem obligaţi să cercetăm numai o anumită parte din populaţie este impus
de natura concretă a colectivităţii. Astfel, dacă numărul elementelor populaţiei este infinit, în
mod necesar nu putem cerceta decât un număr finit şi deci obţinem o informaţie trunchiată.
Dar, în cazul când numărul elementelor populaţiei este finit, atunci când cercetarea
calităţii elementelor conduce la distrugerea lor, evident că se impune alegerea unui număr
finit pentru cercetare.
Dacă ţinem seama de faptul că orice investigare (cercetare) implică şi anumite
cheltuieli, rezultă clar că suntem obligaţi să cercetăm numai o parte din populaţia totală.
Vom numi selecţie (eşantion) o colectivitate parţială de elemente alese la întâmplare.
Numărul elementelor dintr-o selecţie îl vom numi volumul selecţiei.
Spunem că o selecţie este repetată, dacă elementul ales la întâmplare este reintrodus în
colectivitatea generală înaintea efectuării următoarei alegeri.
Selecţia este nerepetată dacă, elementele alese nu se mai introduc în colectivitatea
generală.
Să efectuăm deci o selecţie de volum n dintr-o colectivitate C şi să notăm cu x1, x2, …,
xn valorile de observaţie. Acestea se referă la valorile unei variabile aleatoare X care dă
legitatea caracteristicii studiate.
Considerate aposteriori, valorile de selecţie x1, x2, …, xn sunt valori bine determinate
ale variabilei aleatoare X.
Privite apriori, valorile X1, X2, …, Xn pot fi considerate ca variabile aleatoare
independente, identic repartizate cu variabila X, în cazul unei selecţii repetate.
Dacă selecţia este nerepetată, atunci variabilele X1, X2, …, Xn sunt dependente,
dependenţa fiind de tipul lanţurilor cu legături complete.
Dacă volumul colectivităţii generale este suficient de mare iar volumul selecţiei este
suficient de mic, deosebirea dintre o selecţie repetată şi una nerepetată este nesemnificativă şi,
ca atare, în aplicaţiile practice o selecţie nerepetată se tratează după metodele selecţiei
repetate.
171
Orice funcţie de datele de selecţie o vom numi funcţie de selecţie sau statistică.
Să considerăm acum o selecţie de volum n: X1, X2, …, Xn şi să dispunem în ordine
nedescrescătoare aceste date:
X(1) ≤ X(2) ≤ … ≤ X(n) , unde X(1) = min {X1, X2, …, Xn}.
X(n) = max {X1, X2, …, Xn}.
Mulţimea {X(1), X(2), …, X(n)}, constituie o statistică a ordinei. Pornind de la selecţia
considerată, putem defini imediat amplitudinea de selecţie.
W ( X1 , X 2 ,..., X m ) = X ( m ) − X (1) , care este evident o statistică (o funcţie de selecţie).
Un rol deosebit de important îl are în statistica matematică funcţia empirică de
repartiţie, care se defineşte astfel:
n
Fn ( x ) = x , x ∈ R , unde n este volumul selecţiei, iar nx este numărul valorilor de
n
selecţie mai mici decât x.
Funcţiei F(x) = P(ω: X(ω) < x) îi vom spune funcţie teoretică de repartiţie.
Noi vom considera numai selecţii repetate.
Justificarea teoretică a metodei selecţiei apare în mod natural din teorema lui
V.I.Glivenko, cunoscută sub numele de teorema fundamentală a statisticii matematice.

Teorema lui Glivenko

Dacă F(x) este funcţie teoretică de repartiţie, iar Fn(x) funcţia empirică de repartiţie,
atunci: P⎛⎜ lim sup Fn ( x ) − F( x ) = 0⎞⎟ = 1
⎝ n→∞ x∈R ⎠
Teorema lui A.N.Kolmogorov oferă posibilitatea de a evalua distanţa dintre Fn(x) şi
F(x).
Teoremă. Dacă F(x) este o funcţie continuă, atunci:
⎛ λ ⎞ ∞
= K( λ ) = ∑ ( −1) k e − k λ , cuλ > 0
2 2
lim P⎜ sup Fn ( x ) − F( x ) ≤ ⎟
n →∞ ⎝ −∞< x <∞ n⎠ −∞

7.2. Momente de selecţie

Dacă este dată selecţia de volum n: X1, X2, …, Xn , atunci vom numi momentul de
selecţie de ordinul r şi-l vom nota M r , variabila aleatoare:

1 n r
Mr = ∑ Xj
n j =1

1 n
Pentru r = 1, obţinem media de selecţie: M1 = x = ∑ Xj
n j =1

Să considerăm media şi dispersia variabilei aleatoare M r :

⎛1 n ⎞ 1 n
M ( M r ) = M ⎜ ∑ X rj ⎟ = ∑ M ( X rj ) = M r ( X )
⎝ n j =1 ⎠ n j =1

172
⎡⎛ 1 n ⎞
2
⎤ ⎡ ⎛1 n ⎞ ⎤
2

D 2 ( M r ) = M 2 ( M r ) − M 2 ( M r ) = M ⎢⎜ ∑ X rj ⎟ ⎥ − ⎢ M ⎜ ∑ X rj ⎟⎥ =
⎢⎣⎝ n j =1 ⎠ ⎥⎦ ⎣ ⎝ n j =1 ⎠⎦

∑ M( X ) + n ∑ M( X ) M( X ) − n ∑ M ∑ M( X ) M( X ) =
1 n
1 1 n
1
= 2r
j
r
j
r
k
2
(X j) − r
j
r
k
n2 j =1
2
j pk
2
j =1 n2 j pk

∑[ M ( X ) − M ( X ) ] = n [ M
1 n
1
= r 2 r
( X ) − M r2 ( X )]
n2 j =1
2 j j 2r

Aplicând acum inegalitatea lui Cebâşev, obţinem:


M 2 r ( X ) − M r2 ( X )
(
P Mr − Mr ( X ) < ε ≥ 1 - ) nε 2
, de unde urmează că:

n →∞
( )
lim P M r − M r ( X ) < ε = 1, ceea ce ne conduce la:
P
M r n → ∞ M r ( X ) , fapt care
justifică înlocuirea în aplicaţii a momentelor teoretice de ordinul r, când acestea există, cu
momentele empirice de ordinul r, dacă n este suficient de mare.

Momentele centrate de selecţie, µr

1 n
Prin definiţie: µr = ∑
n j =1
( x j − x )r

Pentru r = 2 se obţine dispersia de selecţie necorectată:

1 n
µ2 = σ 2 = ∑
n j=1
( x j − x )2

Ca şi în cazul momentelor teoretice, putem exprima momentele centrate de selecţie cu


ajutorul momentelor obişnuite de selecţie şi invers:
1 n r r ⎛1 n ⎞
µ r = ∑ ∑ ( −1) h C hr X rj− h X h = ∑ ( −1) h C hr X h ⎜ ∑ X rj− h ⎟ ,
n j=1 h =0 h =0 ⎝ n j=1 ⎠
r
deci µ r = ∑ ( −1) h C hr X h M r − h
h =0

r( r − 1) 2
şi M r = µ r + rxµ r −1 + X µ r − 2 +... , r ∈ N *
2
Ne propunem acum să determinăm repartiţia asimptotică a mediei de selecţie X .
Teoremă. Dacă se efectuează o selecţie de volum n: X1, X2,…, Xn, dintr-o
colectivitate caracterizată de variabila aleatoare X pentru care există M(X) = m, M[(X – m)2]
= σ2 ≠ 0,
x−m B
Y ∈ N(0,1)
σ / n n→∞
Xj
Demonstraţie: Să notăm Y j = , 1 ≤ j ≤ n
n
n
⎛ Xj⎞ m
Atunci: x = ∑ Y j si M(Y j ) = m j = M ⎜ ⎟=
j =1 ⎝ n ⎠ n

173
[( )]
2 ⎡⎛ X j − m ⎞ 2 ⎤ σ 2
M Y j − m j = σ = M ⎢⎜ 2
j⎟ ⎥= 2
⎢⎣⎝ n ⎠ ⎥⎦ n
⎛ X − m3⎞
( ) ⎟ =θ , 1 ≤ j ≤ n
3
M Yj − m j = θ j = M ⎜
3 3 j

⎜ n3 ⎟ n3
⎝ ⎠
Să considerăm condiţiile lui Leapunov:
1/ 3
⎛ n 3⎞ ⎛θ3 ⎞
1/ 3

⎜∑θj ⎟ ⎜ 2⎟
⎝ j= 2 ⎠ ⎝n ⎠ θ 1
lim = lim = lim ⋅ 1/ 6 = 0
n →∞ σ
1/ 2 1/ 2
⎛ n 2⎞
n →∞ n →∞ ⎛ σ ⎞
2 n
⎜∑σ j ⎟ ⎜ ⎟
⎝ j=1 ⎠ ⎝ n⎠
Fiind îndeplinită condiţia lui Leapunov, rezultă conform teoremei:
x
⎛ x−m ⎞ 1
∫ dz
− z2 / 2
lim ⎝P ⎜ < x⎟ = e
n →∞ σ/ n ⎠ 2π −∞
În mod analog, rezultă:
Teoremă: Dacă există valorile medii M(Xr) = Mr(X); M(X2r) = M2r(X) şi

(
M Mr − Mr ( X )
3
) , atunci ⎡ M M r − Mr ( X )
1/ 2
( X ) − M r2 ( X ) ⎤
B
n→∞
Y ∈ N(0,1)
2r
⎢ ⎥
⎣ n ⎦
Pornind de la relaţiile:
µ1 = 0
µ2 = M 2 − M 12
µ3 = M 3 − M 2 M 1 + 2M 13
µ4 = M 4 − 4M 3 M 1 + 6M 2 M 14 − 3M 14

obţinem:
M ( µ1 ) = 0
n −1
M ( µ2 ) = M ( M 2 ) − M ( M12 ) = µ2 ( X )
n
( n − 1)( n − 2)
M ( µ3 ) = M ( M 3 ) − 3 M ( M 2 M1 ) + 2 M ( M13 ) = µ3 ( X )
n2
M ( µ4 ) = M ( M 4 ) − 4 M ( M 3 M1 ) + 6 M ( M 2 M12 ) − 3 M ( M14 ) =
( n − 1)( n 2 − 3n + 3) 3( n − 1)( 2n − 3) 2
= 2
µ4 ( X ) + µ2 ( X )
n n3

Aceste rezultate au loc oricare ar fi repartiţia variabilei aleatoare X, ce caracterizează


colectivitatea din care s-a efectuat selecţia.
Cu ajutorul momentelor de selecţie putem pune în evidenţă şi alţi indicatori de
selecţie, ca: asimetria, excesul, coeficientul de corelaţie, calculate pe baza datelor de selecţie.
Astfel, asimetria de selecţie:
µ3
γ1 =
µ23/ 2
174
Excesul de selecţie:
µ4
γ2 = −3
µ22
Coeficientul de corelaţie de selecţie (empiric):
1 n
∑ X j − X Yj − Y
n j =1
( )( )
ρ=
1 n 2 1
n

∑ ( ∑ ) ( )
2
X j − X ⋅ Yj − Y
n j =1 n j =1

7.3. Selecţia dintr-o populaţie normală N(m, σ)

În multe situaţii, ne interesează repartiţia exactă a diverselor statistici, Tn(X1, X2,


…,Xn), chiar când n este mic. Toate rezultatele obţinute anterior rămân valabile, inclusiv cele
referitoare la repartiţie asimptotică a unor funcţii de selecţie normate convenabil.
Vom presupune acum că populaţiile din care se efectuează selecţiile sunt normale
N(m, σ) şi, în aceste condiţii, vom căuta să stabilim repartiţiile exacte ale celor mai
importante funcţii de selecţie ce intervin curent în aplicaţiile practice. Cel mai frecvent caz
întâlnit în practică este cel al erorilor de observaţie ale măsurătorilor, care, după cum se ştie,
sunt repartizate după o lege normală.
Teoremă. Dacă X1, X2, …,Xn este o selecţie de volum n dintr-o populaţie caracterizată
1 n
de o variabilă aleatoare X ∈ N(m, σ), atunci media de selecţie X = ∑ X j are o lege de
n j =1
repartiţie
⎛ σ ⎞
N ⎜ m, ⎟
⎝ n⎠
Demonstraţie. Cum Xj ∈ N(m, σ), 1 ≤ j ≤ n, rezultă că:
t 2σ 2
itm−
ϕ Xj ( t ) = e 2

Atunci:
⎛ it 1 ∑n X j ⎞ ⎛ n it Xj ⎞ n t t 2σ 2 t 2σ 2
⎛ t ⎞ n i n m− 2 n 2 itm −
ϕ X (t ) = M (e ) = M ⎜⎜ e
itX n j =1
⎟ = M ⎜Π e n
⎟ = Πϕ X j ⎜ ⎟ = Π e =e 2n
,
⎟ ⎝ ⎠ ⎝ n ⎠
⎝ ⎠ j =1 j =1 j =1

⎛ σ ⎞
care este funcţia caracteristică a unei variabile aleatoare normale N ⎜ m, ⎟
⎝ n⎠
Urmează că densitatea de repartiţie a variabilei X este:
2
n ⎛ x− m ⎞
n − 2 ⎜⎝ σ ⎠

fX (x) = e , x ∈R
σ 2π
X −m
Să arătăm că variabila abatere normată Z = este repartizată normal N(0; 1).
σ/ n
Într-adevăr:
⎛ it X −m
⎞ ⎛ − it n m i t ⎞
ϕ Z (t ) = M (e )
n n X
itZ
= M ⎜⎜ e σ ⎟⎟ = M ⎜⎜ e σ ⋅ e σ ⎟=

⎝ ⎠ ⎝ ⎠
2 2
t nσ 2
−i
t
nm ⎛t n⎞ −i
t
nm i
t
nm- −
t
⋅ϕX ⎜
σ
=e σ
⎟ =e ⋅e σ 2σ 2 n
=e 2,
⎝ σ ⎠
care este funcţia caracteristică a unei variabile normale N(0; 1).
175
X −m
Deci densitatea de repartiţie a variabilei Z = este:
σ/ n
z2
1 −2
f Z ( z) = e , z ∈R

Teoremă. Dacă X1, X2, …,Xn este o selecţie de volum n, dintr-o populaţie normală
N(m, σ), atunci X şi µ2 sunt variabile aleatoare independente.
Demonstraţie. Putem presupune că m = 0, întrucât momentul de selecţie µ2 este
invariabil la o schimbare a originii.
1 n
Întrucât: µ2 = ∑ ( X k − X ) ,
2

n k =1
să exprimăm:
2
n n n
1⎛ n n

∑(X − X) = ∑ X − 2 X ∑ X k + nX = ∑ X − ⎜ ∑ X k ⎟
2 2 2 2
k k k
k =1 k =1 k =1 k =1 n ⎝ k =1 ⎠

Însă:
2 2
⎛ n
⎞ ⎛ n

1⎛ ⎞
2 ⎜
n −1⎜ ∑ X k⎟ ⎜ ∑ Xk ⎟
⎟ + n − 2 ⎜ X 2 − k =3
n n


k =1
X k2 − ⎜ ∑ X k ⎟ =
n ⎝ k =1 ⎠ n ⎜
X1 − k =2
n −1 ⎟ n −1 ⎜ n−2 ⎟
⎟ +
⎜ ⎟ ⎜ ⎟
⎝ ⎠ ⎝ ⎠
1
+...+ ( X n−1 − X n )2
2
Deci:
2 2
⎛ n
⎞ ⎛ n

⎜ ∑ X ⎟ ⎜ ∑ Xk ⎟
n − 1⎜ ⎟ + n − 2 ⎜ X 2 − k =3
n k

∑(X − X)
2
= X1 − k =2 ⎟ +...+ 1 ( X n − X n ) 2
−1
n ⎜ n −1 ⎟ n −1 ⎜ n−2 ⎟
k
k =1 n
⎜ ⎟ ⎜ ⎟
⎝ ⎠ ⎝ ⎠
Urmează că:
2 2
⎛ n
⎞ ⎛ n

1⎛ ⎞
2 ⎜ ∑ X k⎟ ⎜ ∑ Xk ⎟
n −1⎜ ⎟ + n − 2 ⎜ X 2 − k =3
n n

∑ X k2 = ⎜ ∑ X k ⎟ + X1 − k =2 ⎟ +...+ 1 ( X n 1 − X n ) 2

k =1 n ⎝ k =1 ⎠ n ⎜ n −1 ⎟ n −1 ⎜ n−2 ⎟ 2
⎜ ⎟ ⎜ ⎟
⎝ ⎠ ⎝ ⎠

În membrul doi al acestei egalităţi avem o sumă de n forme pătratice pozitiv definite,
fiecare având rangul egal cu unu. Deoarece suma rangurilor acestor forme pătratice pozitiv
definite este egală cu n, iar variabilele Xk ∈ N(0, σ) , 1 ≤ k ≤ n, din teorema lui Cochran (pe
care nu o vom demonstra)* rezultă că variabilele:

* Teorema lui Cochran. Fie X1, X2, …, Xn variabile aleatoare independente, repartizate normal N(0, σ) şi Q1, Q2,
S n
…, QS , forme pătratice în X1, X2, …, Xn având rangul k1, k2, … , kS , respectiv. Dacă: ∑ Q j = ∑ X k2 , atunci
j =1 k =1
condiţia necesară şi suficientă ca variabilele Q1, Q2, …, QS să fie independente este ca k1+ k2 +… + kS = n.
176
⎛ n


n − 1⎜ ∑ Xk ⎟
Y1 = X1 − k = 2 ⎟
n ⎜ n −1 ⎟
⎜ ⎟
⎝ ⎠
⎛ n


n − 2⎜ ∑ Xk ⎟
Y2 = X 2 − k =3 ⎟
n −1 ⎜ n−2 ⎟
⎜ ⎟
⎝ ⎠
...................................................
1
Yn −1 = ( X n −1 − X n )
2
1 n
Yn = ∑ Xk
n k =1
sunt independente.
1 n−1
Se constată imediat că: µ2 = ∑ Yk2 şi, prin urmare, rezultă că X şi µ2 sunt
n k =1
independente.

Teoremă. Variabila aleatoare nµ2 are o repartiţie χ 2 cu n – 1 grade de libertate şi


parametrul σ, adică are densitatea de repartiţie:
⎧ 0 , x ≤ 0
⎪ 1
n −1
−1 −
x
f ( x) = ⎨ x 2 e 2σ
n −1
, x > 0
n-1 n −1 ⎛ n −1 ⎞
⎪ 2 σ Γ ⎜⎝ 2 ⎟⎠
⎩2

Variabila aleatoare 22 are o repartiţie cu n – 1 grade de libertate şi parametrul σ = 1.
σ
Variabila aleatoare σ = µ2 are densitatea de repartiţie:
⎧ 0 , x ≤ 0
⎪⎪ n-1
nx 2
f ( x ) = ⎨ 2n 2 n −2
− 2

x e , x > 0
⎪ n-1σ n −1Γ ⎛⎜ n −1⎞⎟
⎪⎩ 2 2 ⎝ 2 ⎠

Y 2 + Y22 +...+Yn2−1 n −1
Demonstraţie. Din µ2 = 1 rezultă: nµ2 = ∑ Yk2 , unde Y1, Y2,…, Yn-1
n k =1
sunt variabile aleatoare independente, repartizate normal, de parametri M(Yk) = 0;
D2(Yk) = σ2.
Deci nµ2 urmează o lege de repartiţie X 2 cu n – 1 grade de libertate şi parametru σ.
De asemenea:
2
nµ2 n −1 ⎛ Yk ⎞
= ∑⎜ ⎟
σ2 ⎝ ⎠
k =1 σ

⎛Y ⎞ ⎛Y ⎞
M ⎜ k ⎟ = 0; D 2 ⎜ k ⎟ = 1
⎝σ⎠ ⎝σ⎠
şi, deci, variabila aleatoare nµ2 /σ2 urmează o lege de repartiţie a cărei densitate este:

177
⎧ 0 , x ≤ 0
⎪ 1
n −1
−1 −
x
f ( x) = ⎨ x 2 e 2 , x > 0
n-1 ⎛ n −1 ⎞
⎪ 2 Γ ⎜⎝ 2 ⎟⎠
⎩2
Pentru a obţine densitatea de repartiţie a variabilei σ = µ2 , pornim de la funcţia de
repartiţie:
⎧ 0 , x≤ 0
P(σ < x ) = ⎨ =
⎩ P n µ( 2 < nx 2
, )
x > 0
⎧ 0 , x≤ 0
⎪⎪ 1
nx 2 n −3
− 2
y

= ⎨ n −1 ∫ y 2 e 2σ dy , x > 0
⎪ 2 2 σ n −1Γ ⎛⎜ n − 1⎞⎟ 0
⎪⎩ ⎝ 2 ⎠
Derivând, obţinem:
⎧ 0 , x≤ 0
⎪ n-1
2
⎪ nx
fσ ( x ) = ⎨ n-1 2n
2 − 2
x n − 2 e 2σ , x > 0
⎪ 2 2 σ n −1Γ ⎛ n − 1⎞
⎪⎩ ⎜ ⎟
⎝ 2 ⎠

1 n
Să considerăm acum σ *2 = ∑ ( X k − m) 2 , unde X1, X2, …, Xn este o selecţie de
n k =1
volum n dintr-o colectivitate normală N(m, σ). Atunci:
2
nσ *2 n
⎛ x k − m⎞
= ∑⎜ ⎟
σ2 k =1
⎝ σ ⎠
X −m
În membrul al doilea avem o sumă de pătrate de variabile Yk = k independente,
σ
nσ 2
repartizate normal N(0, 1). Deci, variabila aleatoare *
urmează o lege de repartiţie χ (2n )
σ 2

cu parametrul σ = 1
Să considerăm acum variabila aleatoare:
1 n
∑ ( X k − X ) pe care o numim dispersia de selecţie corectată.
2
s2 =
n − 1 k =1
Întrucât:

[ ]
n n n n

∑ ( X k − X ) = ∑ ( X k − m) − ( X − m) = ∑ ( X k − m) − 2( X − m)∑ ( X k − m) +
2 2 2

k =1 k =1 k =1 k =1
n
+ n( X − m) = ∑ ( X k − m) − n( X − m)
2 2 2

k =1
rezultă că:
2 2
( n − 1)s 2 n
⎛ X − m⎞ ⎛ X − m⎞
= ∑⎜ k ⎟ −⎜ ⎟
σ2 k =1
⎝ σ ⎠ ⎝σ / n⎠
2 2
n
⎛ X − m⎞ ⎛ X − m⎞
Dar, ∑ ⎜ k ⎟ este o variabilă χ 2
iar ⎜ ⎟ este o variabilă χ (1)
2

k =1
⎝ σ ⎠ (n)
⎝σ / n⎠
independentă de χ (2n ) .

178
( n − 1)s 2
Rezultă că urmează o lege de repartiţie χ (2n−1) cu parametrul σ = 1
σ2
Am văzut că M ( χ (2n ) ) = n; D 2 ( χ (2n ) ) = 2 n când parametrul σ este 1.
⎛ nµ ⎞
Atunci M ⎜ 22 ⎟ = n − 1 , de unde rezultă:
⎝σ ⎠
n −1 2 2 ⎛ nµ 2 ⎞ n2 2
M ( µ2 ) = σ ; D ⎜ 2 ⎟ = 2( n − 1); D ( µ2 ) = 2( n − 1) şi deci:
n ⎝σ ⎠ σ4
2( n − 1)σ 4
D 2 ( µ2 ) =
n2
În acelaşi timp:
⎛ ( n − 1)s 2 ⎞ 2 2
M⎜ ⎟ = n − 1 , care conduce la: M(s ) = σ
⎝ σ 2

⎛ ( n − 1)s 2 ⎞ 2σ 4
D2 ⎜ ⎟ = 2( n − 1), adică D 2 ( s 2 ) =
⎝ σ2 ⎠ n −1
x−m (n - 1)s 2
Întrucât ∈ N ( 0,1), iar = χ (2n −1)
σ/ n σ 2

Urmează că:
x−m x−m
σ / n = σ / n = x − m are o lege de repartiţie Student cu n – 1 grade de
χ (2n −1) ( n − 1)s 2 s/ n
n −1 ( n − 1)σ 2
libertate.
Să presupunem că dispunem de două colectivităţi, C1 şi C2, caracterizate de o variabilă
aleatoare X1 ∈ N(m1, T1) respectiv X2 ∈ N(m2, T2), X1 şi X2 independente.
Din colectivitatea C1 se efectuează o selecţie de volum n1: X11, X12, …, X 1n1 , iar din
colectivitatea C2 se efectuează o selecţie de volum n2: X21, X22, …, X 2 n2 .
Pe baza acestor selecţii, obţinem mediile de selecţie X 1 şi X 2 , dispersiile de selecţie:
1 n1 1 n2
(
∑ X1 j − x1 ) ∑ ( X 2 k − x2 )2 .
2
s12 = , respectiv s22 =
n1 − 1 j =1 n2 − 1 k =1
Variabila aleatoare X 1 ± X 2 urmează o lege normală:
⎛ σ2 σ2 ⎞
N ⎜⎜ m1 ± m 2 , 1 + 2 ⎟⎟ . De aici rezultă că:
⎝ n1 n 2 ⎠
x1 ± x 2 − ( m1 ± m2 )
∈ N ( 0,1)
σ 12 σ 22
+
n1 n2
Evident că: M ( X1 ± X 2 ) = m1 ± m 2
σ 12 σ 22
D 2 ( X1 ± X 2 ) = D 2 ( X1 ) + D 2 ( X 2 ) = +
n1 n2

Dacă σ 12 = σ 22 = σ 2 , atunci variabila aleatoare


1
σ2
[( n − 1)s
1
2
1 + ( n2 − 1)s22 ] are o

repartiţie χ 2 cu n1 + n2 – 2 grade de libertate.


179
Rezultă că variabila aleatoare:
( X1 ± X 2 ) − ( m1 ± m2 )
σ 12 σ 22
+
n2 n2
=
(X 1 ± X 2 ) − ( m1 ± m2 )

n1 n2
( n1 − 1)s12 + ( n2 − 1)s22 ( n1 − 1)s12 + ( n2 − 1)s22 n1 + n2
( n1 + n2 − 2)σ 2 n1 + n2 − 2
urmează o lege de repartiţie Student cu n1 + n2 – 2 grade de libertate.
În virtutea teoremei conform căreia dacă variabilele χ (2γ 1 ) , χ (2γ 2 ) sunt independente,
atunci variabilele aleatoare χ (2γ 1 ) / γ 1: χ (2γ 2 ) / γ 2 urmează o lege de repartiţie Snedecor cu γ1, γ2
grade de libertate, respectiv, rezultă că variabila:
( n1 − 1)s12
( n − 1)σ 2 s12
Fn1 −1; n2 −1 = 1 =
( n2 − 1)s22 s22
( n2 − 1)σ 2
are o lege de repartiţie Snedecor (este o variabilă Fn1 −1; n2 −1 cu n1-1, n2-1 grade de libertate
respectiv.
În aplicaţiile practice trebuie să se ţină seama de faptul că tabelele pentru repartiţia
Snedecor se construiesc pentru valori ale variabilei Fn1 −1; n2 −1 mai mari decât unu.
Ca atare este necesar să luăm la numărător s12 > s 22 şi, totodată, să avem grijă să nu
inversăm ordinea gradelor de libertate. Inversiunea ordinei gradelor de libertate este
echivalentă cu:
s22 1 1
Fn1 −1; n2 −1 = 2 = 2 =
s1 s1 Fn1 −1; n2 −1
2
s12
ceea ce justifică de ce s-au construit tabele numai pentru Fν1 ,ν2 > 1 .

7.4. Elemente de teoria estimaţiei

În toate aplicaţiile statisticii matematice, în economie, în tehnică şi, în general, în


ştiinţele experimentale este necesar să cunoaştem legitatea după care are loc evoluţia
fenomenului studiat, adică legea de repartiţie a variabilei aleatoare prin intermediul căreia este
cuantificată caracteristica studiată a fenomenului. Adesea, cunoştinţele teoretice sau
experienţa practică în domeniul investigat ne dau dreptul să admitem că forma legii de
repartiţie este cunoscută. Pentru a utiliza efectiv o astfel de lege de repartiţie, va trebui
cunoscută care dintre funcţiile de repartiţie din familia celor de o formă dată este cea care
trebuie efectiv utilizată. Cu alte cuvinte, trebuie precizată valoarea numerică a parametrului
(sau valorile numerice ale parametrilor, în cazul unei legi de repartiţie ce depinde de mai
mulţi parametri). Pentru a înţelege mai bine cum stau lucrurile, să dăm unele exemple.
Dacă variabila aleatoare X reprezintă numărul de apeluri la o centrală telefonică într-
un interval de timp determinat, ales ca unitate, atunci X are o lege de repartiţie Poisson:
⎛ x ⎞
X: ⎜ − a a
x ⎟
⎜e ⋅ , x = 0, 1, 2, ...⎟
⎝ x! ⎠
ax
adică P( X = x; a ) = e ⋅ , pentru x = 0, 1, 2, ...; a > 0 şi avem o lege de repartiţie ce
−a

x!
depinde de parametrul a > 0.
180
În cadrul unui proces de producţie, o caracteristică importantă o constituie procentul p
de rebut. Dacă X este variabila aleatoare ce dă numărul de produse necorespunzătoare ce se
obţin într-o selecţie repetată de volum n, atunci:
P( X = x; p) = Cnx p x (1 − p ) n− x , x = 0, 1, 2, ..., n
Să considerăm un alt exemplu, cu o variabilă aleatoare care admite o densitate de
repartiţie. Fie T o variabilă aleatoare ce reprezintă durata de funcţionare fără căderi a unei
anumite componente. În multe situaţii, variabila T este caracterizată de densitatea de
repartiţie:
⎧ 1 − θt

f T ( t ; θ ) = ⎨θ e , t > 0
⎪⎩ 0 , t ≤ 0 θ >0
Este vorba, iarăşi, de o lege de repartiţie – de formă exponenţială cu un singur
parametru θ > 0 .
În fine, dacă X reprezintă abaterile unei piese prelucrate de la cota nominală
menţionată în fişa tehnologică, atunci X urmează o lege normală N(m, σ) a cărei densitate
este:
( X − m )2
1 −
f ( x; m, σ ) = e 2σ , x ∈ R ,
2

σ 2π
care este o lege de repartiţie cu doi parametri (m, σ) ∈ Rx(0, ∞).
În toate aceste exemple s-a specificat forma, fără a se preciza care anume repartiţie
este – adică valorile exacte ale parametrilor ce intervin.
Ori de câte ori avem forma funcţiei prin care se exprimă legea de repartiţie, spunem că
avem o problemă specificată.
Cunoaşterea valorilor parametrilor conduce la cunoaşterea completă a legii de
repartiţie – adică avem o problemă complet specificată.
Operaţia de evaluare a parametrilor poartă numele de estimare a parametrilor, care se
face pe baza unei selecţii de volum n: X1, X2, …, Xn, extrasă din populaţia caracterizată de
variabila aleatoare X, cu legea de repartiţie specificată. Valorile parametrilor unic determinate
pe baza selecţiei X1, X2, …, Xn, le vom numi estimaţii punctuale. Valorile parametrilor le
estimăm cu ajutorul unei statistici (o funcţie de datele de selecţie) construite cu ajutorul
selecţiei X1, X2, …, Xn şi pe care o vom nota Tn(X1, X2, …, Xn).
Pentru a preciza ideile, vom presupune că selecţia de volum n s-a efectuat dintr-o
populaţie caracterizată de o variabilă aleatoare X care admite legea de repartiţie dată de f(x;
θ ), unde f(x; θ ) este o densitate de repartiţie în cazul că există densitate sau, în cazul unei
variabile discrete este
P(X = x; θ ). Cu ajutorul funcţiei de selecţie Tn(X1, X2, …, Xn) dorim să estimăm parametrul
θ (forma fiind cunoscută).
Este clar că dispunem numai de informaţie parţială asupra populaţiei şi, ca atare, cu
cât volumul de selecţie creşte, cu atât informaţia este mai bogată. Deci, Tn(X1, X2, …, Xn)
trebuie să se apropie tot mai mult de valoarea parametrului θ , fiind vorba aici de un proces de
convergenţă. Evident că această convergenţă trebuie să aibă loc în probabilitate, adică:
lim P( Tn ( X1 , X 2 ,..., X n ) − θ < ε ) = 1
n →∞
Valoarea luată de Tn(X1, …, Xn) pentru valori bine determinate ale variabilelor X1, X2,
…, Xn o vom numi estimaţie a parametrului θ .
Din cele prezentate rezultă că funcţia de estimaţie este de natură teoretică, în timp ce
estimaţia este de natură empirică.
P
Dacă Tn(X1, X2, …, Xn) θ spunem că Tn(X1, X2, …, Xn) este o estimaţie
n→∞
corectă pentru parametrul θ .
181
Cum există o infinitate de funcţii Tn(X1, X2, …, Xn) care converg în probabilitate către
θ , pentru a mări precizia, vom recurge la convergenţe mai tari, deci care asigură convergenţa
în probabilitate. O atare convergenţă este convergenţa în medie pătratică, care prezintă
avantajul că este comodă în calcul.
Funcţia de estimaţie Tn(X1, X2, …, Xn) este o funcţie de variabilele aleatoare
independente X1, X2, …, Xn şi, deci, o variabilă aleatoare cu o funcţie de repartiţie. Cum am
presupus că lucrăm cu convergenţă în medie pătratică, am admis implicit că Tn(X1, X2, …,
Xn) are momente de ordinul doi cel puţin.
Definiţie. Spunem că statistica Tn(X1, X2, …, Xn) este o estimaţie nedeplasată a
parametrului θ dacă: M(Tn(X1, X2, …, Xn)) = θ .
Spunem că statistica Tn(X1, X2, …, Xn) este o estimaţie deplasată a parametrului θ ,
dacă:
M(Tn(X1, X2, …, Xn)) = θ + h(n)
Funcţia h(n) pe care o vom numi deplasare a estimaţiei are proprietatea că
h( n) = ⎯⎯ ⎯→ 0.
n →∞
Este clar că între eroarea de estimaţie şi deplasare există o clară deosebire. În timp ce
eroarea de estimare este Tn(X1, …, Xn) - θ şi este o variabilă aleatoare, deplasarea
h(n) = M(Tn(X1, X2, …, Xn)) - θ este o funcţie numerică, care depinde de volumul de selecţie
şi eventual de parametrul de estimat şi care reprezintă o eroare sistematică în procesul de
estimare.
Dacă deplasarea h(n) > 0 spunem că Tn(X1, X2, …, Xn) este pozitiv deplasată, iar dacă
h(n) < 0 spunem că Tn(X1, X2, …, Xn) este negativ deplasată.
Din definiţia funcţiei numerice deplasare, h(n), rezultă importanţa cunoaşterii în cazul
selecţiilor de volum mic.
Exemple de estimaţii nedeplasate sau deplasate putem pune imediat în evidenţă pe
baza unor rezultate pe care le-am obţinut deja.
1 n
Aşa de exemplu, Tn(X1, X2, …, Xn) = X = ∑ X j este o estimaţie nedeplasată a
n j =1
mediei teoretice, m , a unei variabile aleatoare: M ( X ) = m
k
De asemenea, frecvenţa relativă este o estimaţie nedeplasată a probabilităţii, p, de
n
apariţie a unui eveniment în cazul unei repartiţii binomiale:
⎛ k⎞ 1 np
M ⎜ ⎟ = M (k ) = =p
⎝ n⎠ n n
Am văzut că, dacă efectuăm o selecţie dintr-o populaţie normală şi notăm:
1 n
µ2 = ∑ ( X j − X ) 2 (dispersia de selecţie necorectată) şi cu:
n j =1
1 n
s2 = ∑
n − 1 j =1
( X j − X ) 2 (dispersia de selecţie corectată), atunci

σ2
M ( µ2 ) = σ −2
, M(s 2 ) = σ 2
n
Rezultă că µ2 este o estimaţie negativ deplasată a dispersiei teoretice σ2, în timp ce s2 este o
estimaţie nedeplasată a dispersiei teoretice σ2 .
Definiţie. Spunem că Tn(X1, X2, …, Xn) este o estimaţie absolut corectă pentru
parametrul θ , dacă: M(Tn(X1, X2, …, Xn)) = θ
D2(Tn(X1, X2, …, Xn)) ⎯⎯ ⎯→ 0
n →∞

182
Spunem că Tn(X1, X2, …, Xn) este o estimaţie corectă pentru θ , dacă:
M(Tn(X1, X2, …, Xn)) = θ + h(n) , h(n) ⎯n→∞
⎯⎯→ 0
D2(Tn(X1, X2, …, Xn)) ⎯n→∞
⎯⎯→ 0
Utilizând rezultate obţinute anterior, se deduce că momentul de selecţie de ordinul r,
M r este o estimaţie absolut corectă pentru momentul teoretic de ordinul r, Mr(X).
Într-adevăr: M( M r ) = Mr(X)
M 2 r ( X ) − M r2 ( X )
D2( M r ) = ⎯n⎯
⎯→ 0
→∞
n
În particular, X este estimaţie absolut corectă pentru M(X) = m.
σ2
M(s2) = σ2 M( µ2 ) = σ 2 −
n

4
2( n − 1) 4
D 2 ( s2 ) = ⎯n⎯
⎯→ 0
→∞
D 2 ( µ2 ) = ⋅ σ ⎯n⎯ ⎯→ 0
→∞
n −1 n2
Urmează de aici că s2 este o estimaţie absolut corectă pentru σ2, în timp ce µ2 este
numai corectă pentru σ2 (în selecţii dintr-o populaţie normală N(m, σ)).
Este clar că vom prefera totdeauna să avem o estimaţie nedeplasată pentru un
parametru θ . Dar, pot exista, pentru acelaşi parametru θ , mai multe estimaţii nedeplasate şi
atunci este natural să o preferăm pe aceea care are dispersia mai mică, întrucât valorile
statisticii Tn(X1, X2, …, Xn) se vor grupa mai bine în jurul valorii θ . În felul acesta, ne punem
problema existenţei unei estimaţii nedeplasate care să aibă cea mai mică dispersie şi cât de
mică poate să fie dispersia unei estimaţii.
În acest sens, dăm binecunoscuta teoremă a minimului dispersiei, cunoscută şi sub
numele de teorema lui Rao-Cramer.
7.5. Teorema Rao-Cramer.Dacă Tn(X1, X2, …, Xn) este o estimaţie absolut corectă
pentru parametrul θ din repartiţia dată de f(x; θ ) a variabilei aleatoare X (discretă sau
continuă), atunci:
1
D2(Tn(X1, X2, …, Xn)) ≥ , unde I( θ ) este cantitatea de informaţie pe o
nI (θ )
⎡⎛ ∂ ln f ( x; θ ⎞ 2 ⎤ ⎡ ∂ 2 ln f ( x; θ ) ⎤
observaţie şi are expresia: I (θ ) = M ⎢⎜ ⎟ ⎥ = −M⎢ ⎥
⎢⎣⎝ ∂θ ⎠ ⎥⎦ ⎣ ∂θ 2 ⎦


Demonstraţie. Din relaţia: ∫ f ( x; θ )dx = 1
−∞

se obţine, prin derivare în raport cu parametrul θ :


∞ ∂f ( x; θ ) ∞ ∂lnf(x; θ ) ⎡ ∂lnf(x; θ ) ⎤
∫−∞ ∂θ dx = 0 sau ∫-∞ ∂θ f ( x; θ )dx = 0 , adicã M ⎢⎣ ∂θ ⎥⎦ = 0
Estimaţia Tn(X1, X2, …, Xn) fiind nedeplasată, obţinem:
∞ ∞ n
M(Tn(X1, X2, …, Xn)) = ∫ ... ∫ Tn ( X1 , X 2 ,..., X n )∏ f ( x j ; θ )dx1... dx n = θ
−∞ −∞ j =1

Derivând, şi aici, în raport cu θ , se obţine:


∞ ∞ n
∂ ln f ( x; θ ) n
∫ ∫ n 1 2
... T ( X , X ,..., X n ∑
) ∏ f ( x; θ )dx1... dx n = 1
−∞ −∞ j =1 ∂θ j =1

Pe de altă parte:
∞ ∞ n
∂ ln f ( x j ; θ ) n
∫ ∫∑
−∞
...
−∞ j=1
∂θ
∏ f ( x j; θ )dx1... dx n = 0
j=1
183
Înmulţind această relaţie cu θ şi scăzând din relaţia anterioară, obţinem:
∞ ∞ n ∂ ln f ( x ; θ ) n

∫ ∫
... [ Tn ( X 1 , X 2 ,... X n ) − θ ]∑ j

∂θ
∏ f ( x j; θ )dx1... dx n = 1,
−∞ −∞ j=1 j=1

adică:
⎡ n ∂ ln f ( x ; θ ) ⎤
M ⎢(Tn ( X1 , X 2 ,..., X n ) − θ )∑
j
⎥ =1
⎣ j=1 ∂θ ⎦
Aplicând inegalitatea lui Schwarz, se obţine:
⎛ n
∂ ln f ( x; θ ) ⎞
1 ≤ M ⎜ Tn ( X1 , X 2 ,..., X n ) − θ ⋅ ∑
2
⎜ ⎟⎟ ≤
⎝ j=1 ∂θ ⎠
⎡ ⎛ n ∂ ln f ( x j ; θ ) ⎞ ⎤
≤ ⎢ D 2 ( Tn ( X1 , X 2 ,..., X n ) − θ ) ⋅ D 2 ⎜ ∑ ⎟⎥
⎢⎣ ⎝ j=1 ∂θ ⎠ ⎥⎦
Întrucât M(Tn(X1, X2, …, Xn)) = θ şi X1, X2, …, Xn sunt independente, obţinem:
D2(Tn(X1, X2, …, Xn)) = D2(Tn(X1, X2, …, Xn))
⎛ n ∂ ln f(x j ;θ ) ⎞ n 2 ⎛ ∂ ln f(x j ;θ ) ⎞ ⎛ ∂ ln f(x;θ ) ⎞
D2 ⎜ ∑ ⎟ = ∑D ⎜ ⎟ = nD 2 ⎜ ⎟=
⎝ j =1 ∂θ ⎠ j =1 ⎝ ∂θ ⎠ ⎝ ∂θ ⎠
⎡⎛ ∂ ln f(x;θ ) ⎞2 ⎤
= nM ⎢⎜ ⎟ ⎥ = nI (θ )
⎣⎝ ∂θ ⎠ ⎦
1
Deci: D2(Tn(X1, X2, …, Xn)) ≥
⎡⎛ ∂ ln f(x;θ ) ⎞2 ⎤
nM ⎢⎜ ⎟ ⎥
⎣⎝ ∂θ ⎠ ⎦
Să arătăm că:
⎡⎛ ∂ ln f ( x; θ ) ⎞ 2 ⎤ ⎡ ∂ 2 ln f ( x; θ ) ⎤
I (θ ) = M ⎢⎜ ⎟ ⎥ = −M⎢ ⎥
⎢⎣⎝ ∂θ ⎠ ⎥⎦ ⎣ ∂θ 2 ⎦
∞ ∞
∂f ( x; θ ) ∂ 2 f ( x; θ )
Într-adevăr, din: ∫−∞ ∂θ dx = 0 rezultă: ∫−∞ ∂θ 2 dx = 0

Însă:
∂ 2 f ( x; θ ) ∂ ⎛ ∂f ( x; θ ) ⎞ ∂ ⎛ ∂ lnf ( x; θ ) ⎞ ∂ ln f ( x; θ )
2
= ⎜ ⎟ = ⎜ ⋅ f ( x ; θ )⎟ = f ( x; θ ) +
∂θ 2 ∂θ ⎝ ∂θ ⎠ ∂θ ⎝ ∂θ ⎠ ∂θ 2
2
∂ lnf ( x; θ ) ∂f ( x; θ ) ∂ 2 ln f ( x; θ ) ⎛ ∂ lnf ( x; θ ) ⎞
+ ⋅ = f ( x; θ ) + ⎜ ⎟ f ( x; θ )
∂θ ∂θ ∂θ 2
⎝ ∂θ ⎠
Deci:
∞ ∞ 2
∂ 2 ln f ( x; θ ) ⎛ ∂ ln f ( x; θ ) ⎞
∫−∞ ∂θ 2 f ( x; θ )dx + ∫ ⎜
−∞
⎝ ∂θ 2
⎟ f ( x; θ )dx = 0

şi, deci:
⎡⎛ ∂ ln f ( x; θ ) ⎞ 2 ⎤ ⎡ ∂ 2 ln f ( x; θ ) ⎤
M ⎢⎜ ⎟ ⎥ = −M⎢ ⎥
⎢⎣⎝ ∂θ ⎠ ⎥⎦ ⎣ ∂θ 2 ⎦
Definiţie. Spunem că estimaţia Tn(X1, X2, …, Xn) este eficientă dacă:
1
D2(Tn(X1, X2, …, Xn)) ≥
nI(θ )

184
Fie acum Tn(X1, X2, …, Xn) o estimaţie absolut corectă oarecare. Atunci, vom numi
eficienţă a lui θ , raportul:
1
nI (θ )
e(Tn(X1, X2, …, Xn)) = 2
D (Tn (X 1 , X 2 , ..., X n ) )
Este evident că: 0 ≤ e (Tn(X1, X2, …, Xn)) ≤ 1 şi Tn(X1, X2, …, Xn) este
eficientă dacă e(Tn(X1, X2, …, Xn)) = 1.
Cum eficienţa este o funcţie de volumul n a selecţiei şi cum la limită trebuie să
obţinem cea mai mare informaţie posibilă, rezultă că, dacă:
lim e( Tn (X1 , X 2 , ..., X n )) = 1 , atunci estimaţia Tn(X1, X2, …, Xn) este asimptotic
n →∞

eficientă.
Ilustrăm noţiunea de eficienţă a unei estimaţii prin două exemple prin care să
cuprindem o repartiţie care admite densitate de repartiţie şi o repartiţie de tip discret.
1 n
(1) Să se arate că Tn(X1, X2, …, Xn) = X = ∑ X j este o estimaţie eficientă pentru
n j =1
parametrul m al repartiţiei normale N(m; σ);
(2) Să se arate că: Tn(X1, X2, …, Xn) = X este o estimaţie eficientă pentru
parametrul θ al unei repartiţii Poisson.
θx
(P(X = x / θ ) = e −θ ⋅ , x = 0, 1, 2, ... )
x!
Soluţie
σ2
(1) Din consideraţii anterioare, ştim că: M ( X ) = m; D 2 ( X ) =
n
1
Rămâne să arătăm că: D 2 ( X ) =
nI (θ )
( X − m )2
1 −
f ( x; m, σ ) = e 2σ 2
, x ∈ R, σ > 0
σ 2π
( X − m) 2
ln f ( x; m, σ ) = − ln(σ 2π ) −
2σ 2

∂ ln f ( x; m, σ ) X − m ⎡⎛ ∂ ln f ( x; m, σ ) ⎞ 2 ⎤ ⎡⎛ X − m ⎞ 2 ⎤
= ; M ⎢⎜ ⎟ ⎥ = M ⎢⎜ ⎟ ⎥=
∂m σ2 ⎢⎣⎝ ∂m ⎠ ⎥⎦ ⎢⎣⎝ σ ⎠ ⎥⎦
2

σ2
1
σ4
[ ]
M ( X − m) 2 =
σ 4
1
= 2
σ
1 1 1 σ2
⇒ I ( m) = şi deci: = =
σ2 nI ( m) n / σ 2 n
1
Cum D 2 ( X ) = , rezultă că X este estimaţie eficientă pentru parametrul
nI ( m)
m.
D2 ( X ) θ
(2) Pentru o repartiţie Poisson, D 2 ( X ) = =
n n
θx
ln P( X = x | θ ) = ln e −θ ⋅ = −θ + x ln θ − ln x !
x!

185
∂ ln P( X = x θ ) x
= −1 +
∂θ θ
⎡⎛ x ⎞ 2 ⎤ ⎡ x2 x ⎤ 1 2
I (θ ) = M ⎢⎜ − 1⎟ ⎥ = M ⎢ 2 − 2 + 1⎥ = 2 M ( X 2 ) − M ( X ) + 1 =
⎢⎣⎝ θ ⎠ ⎦⎥ ⎣θ θ ⎦ θ θ
θ 2 + θ 2θ 1
− +1 =
θ 2
θ θ
1
Cum D 2 ( X ) = , rezultă eficienţa estimaţiei X pentru parametrul θ .
nI (θ )
Am văzut, aşadar, cum putem să analizăm estimaţiile parametrilor în funcţie de
proprietăţile pe care le au, să le clasificăm. Vom căuta acum să punem în evidenţă modalităţi
sau metode de obţinere a unor estimaţii. În cele ce urmează, ne vom opri asupra a două
metode de obţinere a estimaţiilor pe care le vom numi estimaţii punctuale: metoda
momentelor şi metoda verosimilităţii maxime.

7.6. Metoda momentelor

Am văzut că momentele de selecţie de ordinul r sunt estimaţii absolut corecte ale


momentelor teoretice de acelaşi ordin:
M ( Mr ) = Mr ( X )
M 2 r ( X ) − M r2 ( X )
D2 ( Mr ) = ⎯n⎯
⎯→ 0
→∞
n
Este natural ca, pentru n suficient de mare, să luăm în locul momentului teoretic
momentul empiric de acelaşi ordin.
Să presupunem că am efectuat o selecţie de volum n:x1, x2, …, xn, dintr-o populaţie
caracterizată de variabila aleatoare X care are legea de repartiţie dată de f ( x; θ1 , θ 2 ,..., θ k ) ,
unde f ( x; θ1 ,..., θ k ) este densitatea de repartiţie, dacă aceasta există, sau
P( X = x; θ1 , θ 2 ,..., θ k ) , dacă variabila X este de tip discret.
Am considerat, desigur, cazul când variabila X este unidimensională şi legea depinde
de k parametri.
Admitem că variabila aleatoare X are moment cel puţin până la ordinul k inclusiv.
Atunci:
M s ( X θ1 , θ 2 ,..., θ k ) sunt funcţii de parametrii necunoscuţi θ1 , θ 2 ,..., θ k .
Alcătuind sistemul de ecuaţii:
M s ( X θ1 , θ 2 ,..., θ k ) = M s , 1 ≤ s ≤ k ,
1 n s
unde M s = ∑ Xj
n j=1
şi presupunând că sistemul admite soluţii reale, se obţin:
θ$s = θ$s ( M1 , M 2 ,..., M k ); 1 ≤ s ≤ k care sunt estimaţiile parametrilor
θ1 , θ 2 ,..., θ k . prin metoda momentelor.
Să observăm că nu este necesar să se ia neapărat primele k momente, din contră,
putem lua alte momente, inclusiv momente centrate, care să constituie însă un sistem de k
ecuaţii cu necunoscutele θ1 , θ 2 ,..., θ k . şi din care să se obţină cât mai uşor posibil soluţia
căutată.
Vom da acum unele exemple care să ilustreze metoda propusă.
Exemplu. Să se estimeze prin metoda momentelor, pe baza unei selecţii de volum
n:x1, x2, …, xn, extrasă dintr-o populaţie caracterizată de:

186
⎧ 1
⎪ , dacă x ∈ [θ1 ,θ 2 ]
f ( x; θ 1 , θ 2 ) = ⎨ θ 2 − θ 1 , a parametrilor θ1 , θ 2 .
⎪⎩ 0 , dacă x ∉ [θ1 ,θ 2 ]
Soluţie. Întrucât
θ + θ2 θ 2 + θ1θ 2 + θ 22
M ( X θ1 , θ 2 ) = 1 ; M2 ( X ) = 1 ,
2 3
avem sistemul de ecuaţii:
⎧θ1 + θ 2
⎪ 2 = M1
⎨θ 2 + θ θ + θ 2 ,
⎪ 1 1 2 2
= M2
⎩ 3
a cărui soluţie este:
( ) (
θ$1 = M 1 − 3 M 2 − M 12 ; θ$2 = M 1 + 3 M 2 − M 12 , sau )
3( n − 1) 3( n − 1)
θ$1 = x − s ; θ$2 = x$ + s
n n
3( n − 1)
Lungimea intervalului se estimează prin: θ 2 − θ1 = 2s
n
La aceleaşi rezultate se ajunge mai simplu, dacă luăm sistemul:
⎧θ1 + θ 2 = 2 x

⎨ (θ 2 − θ1 )
2
,
⎪⎩ 12 = µ2 (
= M 2 − M12 )
sau:
θ1 + θ 2 = 2 x
θ 2 − θ1 = 2 3µ2
şi se continuă, ajungându-se la acelaşi rezultat.
Exemplu. Estimarea parametrilor a, b din repartiţia Beta, care are densitatea:
⎧0 , x ∉(0, 1)
⎪ Γ( a, b)
f ( x; a , b ) = ⎨ ,
x a −1 (1 − x ) b−1 , x ∈(0, 1)
⎪⎩ Γ ( a )Γ ( b )
a > 0, b> 0.

Prin calcul direct, se obţine:


a
M1 ( X | a , b ) =
a+b
ab
D 2 ( X | a, b) =
( a + b) ( a + b + 1)
2

Estimaţiile a$ , b$ se obţin rezolvând sistemul de ecuaţii:


⎧ a
⎪a + b = X
⎨ ab
⎪ = s2
⎩ ( a + b) ( a + b + 1)
2

187
De aici rezultă:
X 2 (1 − X ) ⎡ X(1 - X) ⎤
a$ = 2
− X ; b$ = (1 - X)⎢ 2
− 1⎥
s ⎣ s ⎦
Exemplu. Cazul unei repartiţii normale N(m; σ). După cum se ştie:
M(X| m, σ) = m
M2(X| m, σ) = m2 + σ2
şi avem, astfel, de rezolvat sistemul de ecuaţii:
⎧m = X m
$ =X
⎨ 2 care conduce la:
⎩m + σ = M 2 σ$ 2 = M 2 − X 2 = µ2
2

7.7.Metoda verosimilităţii maxime

Metoda momentelor pe care am prezentat-o este simplă şi uşor de aplicat. Prezintă,


totuşi, o serie de neajunsuri în ceea ce priveşte calităţile estimatorilor obţinuţi pe această cale.
De aceea, statisticienii au căutat alte metode de obţinere a estimaţiilor. Una dintre
acestea este metoda verosimilităţii maxime elaborată R.A.Fisher şi prezintă avantajul unui
plus de eficacitate.
Să considerăm pentru început cazul unui singur parametru şi că legea de repartiţie a
variabilei X ce caracterizează populaţia din care s-a efectuat selecţia de volum n, x1, x2, …, xn
este dată de f(x; θ ).
Atunci, repartiţia vectorului aleator (x1, x2, …, xn) este:
n
P(x1, x2, …, xn; θ ) = ∏ f ( x ; θ ) , pe care o considerăm ca funcţie de θ .
j =1
j

Valorile x1, x2, …, xn fiind considerate ca date, ele fiind rezultatul experienţei, vom
considera ca valoare cea mai verosimilă a parametrului θ , valoarea pentru care probabilitatea
P(x1, x2, …, xn; θ ) devine maximă, ceea ce ne conduce la faptul că estimaţia de verosimilitate
maximă θ , este soluţia ecuaţiei:
∂P( x1 , x 2 ,..., x n ; θ )
=0
∂θ
Funcţia P(x1, x2, …, xn; θ ) poartă numele de funcţie de verosimilitate.
Întrucât lnP(x1, x2, …, xn; θ ) şi P(x1, x2, …, xn; θ ) sunt în acelaşi timp crescătoare
sau descrescătoare, estimaţia de verosimilitate maximă se obţine ca soluţie a ecuaţiei.
∂ ln P( x1 , x 2 ,..., x n ; θ )
=0
∂θ
n
Funcţia L(x1, x2, …, xn; θ ) = ln P(x1, x2, …, xn; θ ) = ∑ ln f ( x ;θ )
j =1
j o vom

numi tot funcţie de verosimilitate.


În cazul când repartiţia unidimensională depinde de mai mulţi parametri,
f ( x; θ1 , θ 2 ,..., θ k ) , funcţia de verosimilitate devine: L( x1 , x 2 ,..., x n ; θ1 , θ 2 ,..., θ k ) , iar
estimaţiile de verosimilitate maximă se obţin ca soluţii ale sistemului de ecuaţii:
∂L(x1 , x 2 ,... , x n ; θ1 , θ 2 ,.., θ k )
= 0 ; 1≤ j ≤ k
∂θ j
Rezolvând sistemul, se obţin: θ$ j = θ$ j ( x1 , x 2 ,..., x n ), 1 ≤ j ≤ k , estimaţii de
verosimilitate maximă.
∂L
Ecuaţiile = 0, 1 ≤ j ≤ k poartă numele de ecuaţii de verosimilitate.
∂θ j

188
Fără a intra în amănunte, vom sublinia unele proprietăţi ale estimaţiilor de
verosimilitate maximă, care le recomandă pentru aplicaţii.
În cazul unui singur parametru θ , estimaţia de verosimilitate maximă este consistentă
în probabilitate, dar, pentru valori mari ale lui n, repartiţia ei este aproximativ normală, cu
media M(θ$ ) = θ şi cu dispersia:
1
D 2 (θ$ ) =
⎡⎛ ∂ ln f ( x; θ ) ⎞ 2 ⎤
nM ⎢⎜ ⎟ ⎥
⎢⎣⎝ ∂θ ⎠ ⎥⎦
Altfel spus, estimaţia θ$ obţinută prin metoda verosimilităţii maxime este asimptotic
eficientă, în sensul că nu există o altă estimaţie asimptotic normală cu dispersie mai mică.
Dacă parametrul θ admite o estimaţie eficientă, atunci aceasta se obţine în mod unic,
rezolvând ecuaţia de verosimilitate.
Exemple. Pe baza unei selecţii de volum n, să se estimeze parametrul θ din repartiţia
Poisson:
e −θ ⋅ θ x
P( X = x ) = , x = 0,1,2, ...
x!
n

∑xj
n n
e −θ ⋅ θ x e − nθ ⋅ θ j =1
P(x1 , x 2 ,..., x n ; θ ) = ∏ P( X = x j ; θ ) = ∏ = n
x!
j =1 j =1
∏xj ! j =1
n n
lnP(x1, x2, …, xn; θ ) = L(x1, x2, …, xn; θ ) = − nθ + ∑ x j ln θ − ln ∏ ( x j !)
j =1 j =1
n

∂L( x1 , x 2 ,..., x n ; θ ) j=1


∑x j

= −n + ,
∂θ θ
n

∑x
j=1
j

iar −n+ =0
θ

are soluţia:
1 n
θ = ∑ xj = x
$
n j=1
n

∂ 2 L( x1 , x 2 ,..., x n ; θ )
∑x
j=1
j

=− 2
∂θ 2
θ
n

∂ 2 L( x1 , x 2 ,..., x n ; θ$ )
∑x
j=1
j

=− 2 <0,
∂θ 2 x
adică θ$ asigură maximul funcţiei de verosimilitate. Cazul repartiţiei:

P(X = x; p) = px (1-p)1-x , x = 0, 1
⎛ 1 0⎞
X: ⎜ ⎟ , 0< p < 1
⎝ p q⎠

189
Funcţia de verosimilitate:
n

[
L( x1 , x s ,..., x n ; p ) = ∑ x j ln p + (1 − x j ) ln(1 − p )
j =1
]
n n ,
∂L( x1 , x s ,..., x n ; p )
∑ xjj =1
n − ∑ xj
j =1
= − =0
∂p p 1− p
care are soluţia:
1 n
p$ = ∑ x j
n j =1
⎡ n n

∂ L( x1 , x 2 ,..., x n ; p )
2 ⎢ ∑ x j n − ∑ xj ⎥ ,
= −⎢ 2 +
j =1 j =1
⎥<0
∂p 2 ⎢ p (1 − p ) 2 ⎥
⎢ ⎥
⎣ ⎦
n
întrucât: ∑x
j =1
j ≤ n.

Cazul repartiţiei normale N(m, σ):

( X − m )2
1 −
f ( x; m, σ ) = e 2σ , x ∈ R, σ > 0
2

σ 2π
Funcţia de verosimilitate:
n
1
− 2 ∑ ( x−m ) 2
1 2σ j=1
P(x1 , x 2 ,..., x n ; m, σ ) = e
(σ 2π ) n

1 n
L( x1 , x 2 ,..., x n ; m, σ ) = − n ln 2π − n ln σ − ∑ (x − m)
2

2σ 2
j=1

∂L( x1 , x 2 ,..., x n ; m, σ ) 1 n
= 2 ∑ ( x j − m )2
∂m σ j=1
∂L( x1 , x 2 ,..., x n ; m, σ ) n 1 n
= − + 3 ∑ ( x j − m )2
∂σ σ σ j=1

Sistemul de ecuaţii de verosimilitate devine:

⎧ n
⎪⎪ ∑ ( x j − m) = 0
⎨ j =1
⎪−n + 1 ∑ ( x − m) 2 = 0 ,
n

⎪⎩ σ 2 j =1 j

cu soluţia:
1 n
m$ = ∑ xj = x
n j =1
1 n
σ$ 2 = ∑ ( x j − x ) 2 = µ2
n j =1

190
Să arătăm că ( m$ , σ$ 2 ) este punct de maxim pentru L.
∂ 2 L( x1 , x 2 ,..., x n ; m, σ ) n
=− 2 <0
∂m 2
σ
∂ L( x1 , x 2 ,..., x n ; m, σ ) n
2
3 n
4 ∑
= − ( x j − m) 2
∂σ 2 2
σ σ j =1

∂ 2 L( x1 , x 2 ,..., x n ; m, σ ) 2 n
= − 3 ∑ ( x j − m)
∂m∂σ σ j =1
Urmează că:
∂ 2L ∂ 2L n 2 n
− 2 − 3 ∑ ( x j − m$ )
σ$ σ$ j =1
∆ = ∂m ∂m∂σ =
2

∂ L
2
∂ L
2
2 n
n 3 n
− 3 ∑ ( x j − m)
$ − 4 ∑ (x j − m $ )2
∂σ∂m ∂σ 2
σ$ j =1 σ$ 2
σ$ j =1
Dar,
n

∑ (x
j =1