Documente Academic
Documente Profesional
Documente Cultură
Curs TP
Curs TP
TEORIA PROBABILITĂŢILOR
IAŞI 1999
Cuprins
Introducere 5
1 Câmp de probabilitate 7
1.1 Câmp finit de evenimente . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Câmp finit de probabilitate . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3 Metode de numărare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4 Moduri de selectare a elementelor . . . . . . . . . . . . . . . . . . . . . . . 17
1.5 Definiţia axiomatică a probabilităţii . . . . . . . . . . . . . . . . . . . . . . 18
1.6 Formule probabilistice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.7 Scheme clasice de probabilitate . . . . . . . . . . . . . . . . . . . . . . . . 26
1.8 Câmp infinit de probabilitate . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.9 Probleme propuse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3
4.4 Convergenţa ı̂n repartiţie. Teorema limită centrală . . . . . . . . . . . . . . 164
4.5 Legătura dintre convergenţa şirurilor funcţiilor de repartiţie şi convergenţa
şirurilor funcţiilor caracteristice . . . . . . . . . . . . . . . . . . . . . . . . 177
4.6 Convergenţa aproape sigură . . . . . . . . . . . . . . . . . . . . . . . . . . 181
4.7 Convergenţa ı̂n medie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
4.8 Probleme propuse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
Numeroase probleme practice din variate domenii de activitate, ca: ingineria electrică,
radio, transmisia de date, calculatoare, teoria informaţiei, fiabilitatea sistemelor şi altele,
conduc la studiul unor fenomene şi procese aleatoare. Evaluarea şanselor lor de producere
constituie obiectul disciplinei teoria probabilităţilor.
Cursul de Teoria probabilităţilor are atât un caracter informativ, furnizând studenţi-
lor noţiuni şi rezultate fundamentale cu care vor opera ı̂n cadrul specialităţilor lor, cât
şi formativ, acomodându-i cu raţionamente matematice, dintre care unele vor fi necesare
prelucrării pe calculator a datelor.
Cursul este alcătuit din cinci capitole.
Capitolul I, intitulat ”Câmp de probabilitate” introduce noţiunea de câmp de pro-
babilitate, cadru ı̂n care se defineşte axiomatic noţiunea de probabilitate. Sunt trecute
ı̂n revistă formule şi scheme clasice de probabilitate. Elementele de teorie sunt ı̂nsoţite
de exemple, dintre care unele cu referire la situaţii tehnice privind controlul de calitate,
transmiterea informaţiei etc.
Cuprinde paragrafele: 1.Câmp finit de evenimente; 2.Câmp finit de probabilitate;
3. Metode de numărare; 4.Moduri de selectare a elementelor; 5.Definiţia axiomatică a
probabilităţii; 6.Formule probabilistice; 7.Scheme clasice de probabilitate; 8.Câmp infinit
de probabilitate.
Capitolul II, intitulat ”Variabile aleatoare discrete”cuprinde paragrafele 1.Definiţia
şi clasificarea variabilelor aleatoare; 2.Variabile aleatoare discrete simple; 3.Exemple de
variabile aleatoare discrete simple; 4.Variabile aleatoare discrete simple bidimensionale;
5.Variabile aleatoare cu un număr infinit numărabil de valori.
Este scos ı̂n evidenţă rolul distribuţiei Poisson, a evenimentelor rare ı̂n numeroase
aplicaţii tehnice.
Capitolul III, intitulat ”Variabile aleatoare continue”, cuprinde paragrafele: 1.Func-
ţia de repartiţie a unei variabile aleatoare unidimnesionale; 2.Densitatea de probabi-
litate.Repartiţia normală;3.Funcţia de repartiţie multidimensională.Transformări; 4.Va-
lori caracteristice ale unei variabile aleatoare. 5.Funcţia caracteristică a unei variabile
aleatoare; 6.Variabile aleatoare continue clasice şi legăturile dintre ele; 7.Fiabilitate.
Este scos ı̂n evidenţă rolul legii lui Gauss ı̂n studiul erorilor accidentale de măsurare.
Capitolul IV, intitulat ”Probleme la limită ı̂n teoria probabilităţilor”, cuprinde para-
grafele: 1.Convergenţa ı̂n probabilitate a şirurilor de variabile aleatoare; 2.Legea nu-
merelor mari (forma slabă); 3.Aproximări pentru distribuţii discrete; 4.Convergenţa ı̂n
repartiţie. Teorema limită centrală; 5.Legătura dintre convergenţa funcţiilor de repartiţie
şi convergenţa funcţiilor caracteristice; 6.Convergenţa aproape sigură; 7.Convergenţa ı̂n
medie.
Scopul acestui capitol este de a pune ı̂n evidenţă justificări teoretice ale apropie-
rii dintre anumite concepte din teoria probabilităţlor şi din statistica matematică şi de
asemenea, legăturile dintre diferitele tipuri de convergenţă ı̂n teoria probabilităţilor.
Capitolul V, intitulat ”Procese stochastice”, cuprinde paragrafele:1.Lanţuri Markov;
2.Procese Markov contiue. Procese Poisson; 3.Procese stochastice staţionare.
Pentru ı̂nţelegerea materialului din acest capitol, s-au dat numeroase exemple de
importanţă practică din teoria aşteptării, teoria stocurilor şi altele.
Capitolele I, II, IV au fost redactate de lector dr. Pletea Ariadna, iar Capitolele III şi
V de lector dr. Popa Liliana, care au colaborat pentru a obţine o formă cât mai unitară
şi modernă a cursului.
Adresăm pe această cale vii mulţumiri comisiei de analiză a cursului, formată din prof.
dr. Pavel Talpalaru, prof. dr. Stan Chiriţă şi lector Gheorghe Florea pentru observaţiile
constructive făcute, cât şi, anticipat, tuturor cititorilor, care vor contribui prin sugestii la
ı̂mbunătăţirea prezentului material.
Autoarele
Capitolul 1
Câmp de probabilitate
Orice element a lui E, notat e, este un punct de selecţie sau un rezultat posibil al
experienţei.
În cele ce urmează vom presupune E finit.
Exemplul 1.1.1 Considerăm experienţa care constă ı̂n aruncarea unui zar. Aceasta este
o experienţă aleatoare. Mulţimea rezultatelor posibile ale experienţei sunt 1, 2, 3, 4,
5, 6. Deci spaţiul de selecţie este E = {1, 2, 3, 4, 5, 6}. Presupunem că ne interesează
evenimentul ca la o aruncare a zarului să obţinem o faţă cu un număr par de puncte.
Dacă aruncând zarul am obţinut faţa cu cinci puncte, aceasta este o probă a experienţei
noastre, dar evenimentul care ne interesa (o faţă cu un număr par de puncte) nu s-a
realizat. Dacă proba experienţei ar fi faţa cu şase puncte, atunci evenimentul nostru s-a
realizat.
Exemplul dat este al unei experiente cu un numar finit de probe. Se pot da exemple şi de
experienţe cu o infinitate de probe. Astfel, experienţa tragerii la ţintă. Există o infinitate
de probe care realizează evenimentul atingerii ţintei.
7
8 Câmp de probabilitate
Observaţia 1.1.1 Operaţiile de reuniune şi intersecţie se extind pentru un număr finit
de evenimente. Fie A1 , A2 , . . . , An ⊂ E. Avem
n
[
(. . . ((A1 ∪ A2 ) ∪ A3 ) ∪ . . . ∪ An ) = Ai ,
i=1
Câmp de probabilitate 9
adică evenimentul care se realizează dacă cel puţin un eveniment Ai se realizează şi
n
\
(. . . ((A1 ∩ A2 ) ∩ A3 ) ∩ . . . ∩ An ) = Ai
i=1
A ∪ A = A, A ∪ ∅ = A, A ∪ E = E, E ∪ ∅ = E,
A ∩ A = A, A ∩ ∅ = ∅, A ∩ E = A, E ∩ ∅ = ∅.
4. Dacă A, B, C ⊂ E atunci
A ∪ B = B ∪ A, A ∪ (B ∪ C) = (A ∪ B) ∪ C, A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C),
A ∩ B = B ∩ A, A ∩ (B ∩ C) = (A ∩ B) ∩ C, A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C).
a) ∀A ∈ K ⇒ Ā ∈ K;
b) ∀A, B ∈ K ⇒ A ∪ B ∈ K.
2. ∅ ∈ K deoarece (E ∈ K ⇒ Ē ∈ K) ⇒ (∅ = Ē ∈ K).
3. Dacă A, B ∈ K ⇒ A \ B ∈ K deoarece A \ B = A ∩ B̄ = Ā ∪ B ∈ K.
deoarece A ∩ B = Ā ∪ B̄.
10 Câmp de probabilitate
P3. Fie { E, K } un câmp finit de evenimente. Orice eveniment al acestui câmp se poate
scrie ca reuniune finită de evenimente elementare.
Fie B un eveniment compus (dacă B este un eveniment elementar atunci afirmaţia
este demonstrată). Există, conform proprietăţii P2, un eveniment elementar A1 ∈ K
şi un eveniment B1 ∈ K astfel ı̂ncâ B = A1 ∪ B1 , B1 = B \ A1 cu A1 ∩ B1 = ∅.
Dacă B1 este eveniment elementar, afirmaţia este demonstrată. Dacă B1 nu este
eveniment elementar, există evenimentul elementar A2 şi un eveniment B2 ∈ K
astfel ı̂ncât B1 = A2 ∪ B2 şi deci B = A1 ∪ A2 ∪ B2 şi raţionamentul se continuă.
Deci
B = A1 ∪ A2 ∪ . . . Ak ,
unde Ai , i = 1, k sunt evenimente elementare.
P4. Reuniunea tuturor evenimentelor elementare ale lui K este E.
Într-adevăr, fie
E = A1 ∪ A2 ∪ . . . ∪ As .
Presupunem că ı̂n câmpul finit de evenimente mai există un eveniment elementar
An 6= Aj , j = 1, s. Atunci
An ∩ E = An = An ∩ (A1 ∪ . . . ∪ As ) = (An ∩ A1 ) ∪ . . . ∪ (An ∩ As ) = ∅
conform P1.
Câmp de probabilitate 11
b) Ai ∩ Aj = ∅, ∀i 6= j, i, j = 1, n;
n
[
c) Ai = E.
i=1
Exemplul 1.1.2 Să se verifice care din următoarele submulţimi ale lui P(E) (P(E)
mulţimea părţilor lui E) sunt câmpuri finite de evenimente şi, ı̂n caz afirmativ, să se
precizeze evenimentele elementare:
1. Dacă E = {1, 2, 3} şi K = {∅, {1}, {2, 3}, {1, 2, 3}}, atunci { E, K } este câmp
finit de evenimente deoarece satisface cele două axiome ale Definiţiei 1.1.4. Eveni-
mentele elementare sunt {1} şi {2,3}. Observăm că evenimentele elementare nu sunt
submulţimi ale lui E formate dintr-un singur element nu este corectă. În exemplul
prezentat un eveniment elementar este format dintr-un singur element, iar celălalt
eveniment este format din două elemente.
2. Dacă E = {1, 2, 3} şi K = {∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, {1, 2, 3}} = P(E)
atunci { E, K } este un câmp finit de evenimente. Evenimentele elementare sunt
{1}, {2}, {3}.
3. Dacă E = {1, 2, 3} şi K = {{1}, {2}, {1, 3}, {1, 2, 3}} nu este un câmp finit de
evenimente deoarece, de exemplu {2} = {1, 3} ∈ / K sau {1} ∪ {2} = {1, 2} ∈/ K.
Definirea probabilităţii peste un câmp finit de evenimente se poate face ı̂n mod clasic
şi axiomatic.
Definiţia clasică a probabilităţii se poate folosi ı̂n cazul ı̂n care experienţa aleatoare
are un număr finit de cazuri posibile şi toate egal probabile, adică la un număr mare de
efectuări ale experienţei, fiecare caz are aceeaşi şansă de a se realiza.
Considerăm, de exemplu, experienţa care constă ı̂n aruncarea unui zar pe o suprafaţă
netedă. Dacă zarul este perfect cubic şi omogen, atunci fiecare din feţe are aceeaşi şansă
de a apare, frecvenţele relative ale fiecăreia dintre ele variază ı̂n jurul lui 1/6. În cazul ı̂n
care zarul nu ar fi omogen, atunci una sau mai multe feţe ar fi favorizate.
Definiţia 1.2.2 Fie o experienţă şi evenimentele legate de aceasta astfel ı̂ncât toate eveni-
mentele să fie egal posibile. Fie evenimentul A legat de această experienţă. Numim pro-
babilitatea evenimentului A numărul
m
P (A) =
n
dat de raportul dintre numărul m al cazurilor favorabile realizării evenimentului A şi
numărul n al cazurilor egal posibile.
Menţionăm că orice probă care conduce la realizarea unui eveniment A reprezintă ”un
caz favorabil evenimentului A”.
Observaţia 1.2.3 Definiţia clasică a probabilităţii, formulată pentru prima dată de La-
place, este nesatisfăcătoare din punct de vedere logic deoarece reduce definiţia probabi-
lităţii la problema cazurilor egal posibile care nu a putut fi definită din punct de vedere
matematic, ci numai ilustrată.
În cazul zarului neomogen, definiţia clasică a probabilităţii nu poate fi aplicată. Ri-
guros vorbind, zarul neomogen şi nesimetric este singurul caz real deoarece construirea
unui zar perfect este imposibilă.
Un alt incovenient al definiţiei apare ı̂n cazul ı̂n care numărul cazurilor posibile este
infinit deoarece ı̂n această situaţie probabilitatea, calculată după definiţia clasică, este
foarte mică sau egală cu zero.
Câmp de probabilitate 13
În sfârşit, definiţia clasică a probabilităţii nu poate fi admisă deoarece nu pote fi apli-
cată ı̂n studiul fenomenelor sociale, neputându-se determina numărul cazurilor posibile.
Observaţia 1.2.4 Legătura existentă ı̂ntre frecvenţa relativă unui eveniment şi proba-
bilitatea sa este profundă. De fapt atunci când calculăm probabilitatea unui eveniment
ne bazăm pe frecvenţele relative.
Exemplul 1.2.1 Se aruncă un zar de două ori. Mulţimea rezultatelor posibile ale expe-
rienţei care constă ı̂n perechile de numere ce apar pe zar ı̂n cele două aruncări este E =
{11, 12, . . . , 16, 21, 22, . . . , 26, 31, . . . , 66} , |E| = 62 = 36, unde |E| notează numărul de
elemente ale mulţimii E. Toate rezultatele posibile sunt echiprobabile, deci probabilitatea
unui eveniment A, P (A), este egală cu numărul elementelor din mulţimea A ı̂mpărţit la
numărul elementelor din E. Presupunem că vom păstra faţa zarului ce conţine un punct
albă, iar celelalte feţe le vom colora ı̂n negru. Notăm cu AN evenimentul ca la prima
aruncare a zarului să obţinem faţa albă, iar la cea de-a doua aruncare o faţă neagră a
zarului. Avem AN = {12, 13, 14, 15, 16}. Rezultă
5
P (AN ) = .
36
Analog, făcând notaţiile ı̂n acelaşi fel, avem:
1 5 25
P (AA) = , P (N A) = , P (N N ) = .
36 36 36
Presupunem că au fost şterse numerele de pe feţele zarului şi au rămas culorile. Mulţi-
mea rezultatelor posibile, ı̂n acest caz, este E = {AA, AN, N A, N N } cu probabilităţile
corespunzătoare. Observăm că ı̂n acest ultim caz, evenimentele AA, AN, N A, N N sunt
elementare şi formează un sistem complet de evenimente.
P2. P (E) = 1;
P3. P (∅) = 0;
Odată introdusă noţiunea de probabilitate, putem defini două noţiuni importante ı̂n
teoria probabilităţilor şi anume noţiunea de probabilitate condiţionată şi de independenţă
ı̂n probabilitate a evenimentelor.
Uneori trebuie să calculăm probabilitatea unui eveniment A legat de un eveniment
B, ı̂n ipoteza că evenimentul B s-a realizat. Pentru aceasta restrângem mulţimea eveni-
mentelor care realizează evenimentul A la cele care realizează şi evenimentul B, deci
restrângem E la B. Pentru ca această restricţie să aibă sens este necesar ca evenimentul
B să fie de probabilitate nenulă.
Fie { E, K, P } un câmp finit de probabilitate şi A, B ∈ K, P (B) 6= 0.
P (A ∩ B)
P (A|B) = . (1.2)
P (B)
Observaţia 1.2.5 Fie m numărul cazurilor favorabile lui B, p numărul cazurilor favora-
bile lui A şi q favorabile lui A ∩ B. Din cele m cazuri favorabile lui B, q sunt favorabile
Câmp de probabilitate 15
şi lui A sau, ceea ce este acelasi lucru, din cele p cazuri favorabile lui A, q sunt favorabile
şi lui B. Avem
m p q
P (B) = , P (A) = , P (A ∩ B) = .
n n n
În ipoteza că B s-a realizat, rămân m cazuri posibile, din care q favorabile lui A. Deci
q
q n = P (A ∩ B) .
P (A|B) = = m
m P (B)
n
Aceasta ar putea constitui o ”justificare” a relaţiei (1.2).
P (A ∩ B)
P (B|A) = . (1.3)
P (A)
P (A ∩ B) = P (B)P (A|B)
şi
P (A ∩ B) = P (A)P (B|A).
Definiţia 1.2.5 Evenimentele A şi B sunt independente (ı̂n probabilitate) dacă proba-
bilitatea ca unul să se realizeze nu depinde de faptul că celălalt s-a realizat sau nu, altfel
spus
P (A ∩ B) = P (A)P (B). (1.4)
Teorema 1.2.1 Evenimentele A şi B cu P (A)P (B) 6= 0 sunt independente dacă şi numai
dacă are loc una din relaţiile:
a) P (B|A) = P (B);
b) P (A|B) = P (A);
c) P (B|Ā) = P (B);
d) P (A|B̄) = P (A).
Demonstraţie. Arătăm că cele patru relaţii sunt echivalente cu relaţia (1.4) din definiţie. În
acest fel se justifica şi sensul Definiţiei 1.2.5. Presupunem că are loc a). Atunci, deoarece
P (A ∩ B)
P (B|A) =
P (A)
echivalent cu
P (B) − P (A ∩ B) = P (B) − P (A)P (B),
deci (1.4). Invers, presupunem (1.4) şi luăm ı̂n locul lui A pe Ā. Vom avea P (Ā ∩ B) =
P (Ā)P (B), adică (1.5). Deci c) este echivalent cu (1.5) care este echivalent cu (1.4),
rezultă că c) este echivalent cu (1.4). Echivalenţa lui d) cu (1.4) rezultă ı̂n mod analog.
Definiţia 1.2.6 Date evenimentele A1 , A2 , . . . , An , vom spune că sunt independente dacă
probabilitatea oricărei intersecţii finite de evenimente este egală cu produsul probabilităţi-
lor evenimentelor intersectate, adică dacă
oricare ar fi 1 6 i1 6 i2 6 . . . 6 ik 6 n.
Observaţia 1.2.8 Din definiţie rezultă că dacă trei evenimente sunt independete două
câte două nu rezultă că sunt independente ı̂n totalitatea lor. Exemplul lui S.N.Bernstein
ne va ilustra acest lucru. Considerăm un tetraedru omogen cu feţele colorate astfel: una
ı̂n alb, una ı̂n negru, una ı̂n roşu şi a patra ı̂n toate cele trei culori. Aruncând tetraedrul
pe o masă el se asează pe una din feţe; ne interesează probabilitatea apariţei fiecărei culori
şi independenţa evenimentelor corespunzătoare. Notăm cu A1 evenimentul care constă ı̂n
apariţia culorii albe, A2 evenimentul care constă ı̂n apariţia culorii negre şi A3 evenimentul
care constă ı̂n apariţia culorii roşii. Avem:
1
P (A1 ) = P (A2 ) = P (A3 ) =
2
deoarece pentru fiecare culoare sunt patru cazuri posibile şi două favorabile (faţa cu
culorea respectivă şi faţa cu cele trei culori). Se constată că
1
P (A1 ∩ A2 ) = P (A1 ∩ A3 ) = P (A2 ∩ A3 ) = ,
4
dar
1 1
P (A1 ∩ A2 ∩ A3 ) = 6= P (A1 )P (A2 )P (A3 ) = .
4 8
Câmp de probabilitate 17
m × (m − 1) × . . . × (m − n + 1) = Anm .
m1 + m2 + . . . + mr = m.
m1
Numărul cazurilor posibile : Cm moduri de alegere a poziţiilor bilelor de culoare c1 ,
m2 mr
Cm−m1 moduri de alegere a poziţiilor bilelor de culoare c2 ,. . . , Cm−m1 −...−mr−1
moduri
Câmp de probabilitate 19
de alegere a poziţiilor bilelor de culoarea cm (de fapt m−m1 −m2 −. . .−mr−1 = mr şi
avem, de fapt, o singură posibilitate), ı̂n total, ţinând seama de regula multiplicării,
m1 m2 mr
Cm Cm−m1 . . . Cm−m1 −...−mr−1
=
m! (m − m1 )! (m − m1 − . . . − mr )!
= · ... =
m1 ! (m − m1 )! m2 ! (m − m1 − m2 )! (m − m1 − . . . mr )! mr−1 !
m!
= .
m1 ! m2 ! . . . mr !
Observaţia 1.5.1 Axioma c) din definiţie se extinde prin recurenţă la orice număr finit
de evenimente incompatibile două câte două, deci dacă Ai ∩ Aj = ∅, i 6= j, i, j = 1, n,
atunci n n
[ X
P ( Ai ) = P (Ai ).
i=1 i=1
Definiţia clasică a probabilităţii satisface toate axiomele definiţiei date şi, de asemenea,
oricare din proprietăţile prezentate anterior pentru probabilitate poate fi obţinută din
definiţia axiomatică. Într-adevăr,
P1. P (∅) = 0.
Deoarece E ∪ ∅ = E şi E ∩ ∅ = ∅ rezultă că P (E ∪ ∅) = P (E) + P (∅), adică
P (∅) = 0.
P2. P (A \ B) = P (A) − P (A ∩ B).
Deoarece (A\B)∪(A∩B) = A şi (A\B)∩(A∩B) = ∅ rezultă P (A\B)+P (A∩B) =
P (A).
P3. Pentru orice A, B ∈ K, A ⊂ B are loc relaţia P (A) 6 P (B).
Într-adevăr, ţinând seama de P2 şi de faptul că A ⊂ B avem
0 6 P (B \ A) = P (B) − P (B ∩ A) = P (B) − P (A).
Deci P (B) − P (A) > 0 sau P (B) > P (A).
20 Câmp de probabilitate
Observaţia 1.5.4 În definiţia axiomatică a probabilităţii condiţia pusă cazurilor posi-
bile de a fi egal probabile este superfluă. Un exemplu celebru, dat de D’Alembert, ilus-
trează aceasta. Se aruncă două monede simultan. Există trei cazuri posibile care nu sunt
echiprobabile: A evenimentul ca pe ambele monede să apară banul, B evenimentul ca pe
ambele monede să nu apară banul, C evenimentul ca pe una din monede să apară banul,
iar pe cealaltă nu. Probabilităţile evenimentelor A, B, C nu sunt 1/3.
1 1 1
P (A) = , P (B) = , P (C) = ,
4 4 2
Câmp de probabilitate 21
deoarece evenimentul C este compus din două situaţii: pe una din monede să apară banul
iar pe cealată nu, şi invers. Cele două cazuri care compun evenimentul C ar fi evidente
dacă monedele nu s-ar arunca simultan, ci una după alta. Cele două monede pot fi
nedistinse din punct de vedere fizic şi deci cele trei cazuri prezentate de D’Alembert sunt
de fapt cele trei cazuri care se pot distinge.
Facem observaţia că vom demonstra formulele folosind definiţia axiomatică a probabili-
tăţii. Deoarece A ∪ B = A ∪ (B \ A) şi A ∩ (B \ A) = ∅, avem
P (A ∪ B) = P (A ∪ (B \ A)) = P (A) + P (B \ A)
P (B \ A) = P (B) − P (B ∩ A)
n
X n
X n
\ n
X \
= P (Ai ) − P (Ai ∩ Aj ) + . . . +(−1)n−1 P ( Ai ) − P (Ai An+1 )+
i=1 i,j=1,i<j i=1 i=1
n+1
X n+1
\ n+1
X
+ P (Ai ∩ Aj ∩ An+1 ) + . . . +(−1)n P ( Ai ) = P (Ai )−
i,j=1, i<j i=1 i=1
n+1
X X n+1
\
P (Ai ∩ Aj ) + . . . + P (Ai ∩ Aj ∩ Ak ) + . . . + (−1)n+1 P ( Ai ).
i,j=1,i<j 6 6
1 i<j<k n+1 i=1
22 Câmp de probabilitate
P (A ∩ B)
P (A|B) = .
P (B)
Relaţia de mai sus rezultă din (1.2). Ea poate fi folosită pentru a calcula probabilitatea
unei intersecţii:
P (A ∩ B) = P (B)P (A|B).
Când folosim această formulă la rezolvarea unei probleme trebuie să considerăm eveni-
mentele A şi B ı̂ntr-o ordine convenabil aleasă, dat fiind că se poate utiliza, datorită
echivalenţei demonstrate, relaţia
P (A ∩ B) = P (A)P (B|A).
k
\
Formula se poate extinde şi ı̂n cazul a n evenimente A1 , A2 , . . ., An , cu P ( Ai ) 6= 0,
i=1
k = 2, n − 1, sub forma
n
\
P( Ai ) = P (A1 )P (A2 |A1 )P (A3 |(A1 ∩ A2 )) . . . P (An |(A1 ∩ A2 ∩ . . . ∩ An−1 )). (1.10)
i=1
P (A1 ) = P (A1 ),
P (A2 ∩ A1 )
P (A2 |A1 ) = ,
P (A1 )
P (A1 ∩ A2 ∩ A3 )
P (A3 |(A1 ∩ A2 )) = ,
P (A1 ∩ A2 )
...
P (A1 ∩ A2 ∩ . . . ∩ An )
P (An |(A1 ∩ A2 ∩ . . . ∩ An−1 )) = .
P (A1 ∩ A2 ∩ . . . ∩ An−1 )
0 6 P (A ∪ B) 6 1,
rezultă
P (A ∩ B) > P (A) + P (B) − 1
Câmp de probabilitate 23
n
[ n
[
B =B∩E =B∩( Ai ) = (B ∩ Ai )
i=1 i=1
Formula lui Bayes. Fie {E, K, P } un câmp finit de evenimente şi {A1 , A2 , . . . , An },
Ai ∈ K, i = 1, n un sistem complet de evenimente şi B un eveniment oarecare. Atunci
P (B|Ai )P (Ai )
P (Ai |B) = n . (1.12)
X
P (Aj )P (B|Aj )
j=1
În condiţiile date prin ipoteză are loc formula probabilităţii totale şi ţinând seama de
(1.2) obţinem
P (B ∩ Ai ) P (B|Ai )P (Ai )
P (Ai |B) = = n
P (B) X
P (Aj )P (B|Aj )
j=1
Exemplul 1.6.1 Controlul de calitate.Presupunem că ı̂ntr-o cutie sunt 550 de piese, din
care 2% sunt defecte. Care este probabilitatea ca alegând 25 de piese, acestea să conţină
două piese defecte. Acesta este principiul testării produselor prin selecţii aleatoare.
Problema poate fi rezolvată ı̂ntr-un caz general. Presupunem că avem k piese defecte
din m piese, k 6 m. Care este probabilitatea ca alegând n piese, dintre acestea j să fie
defecte?
24 Câmp de probabilitate
Putem alege cele n piese dintre cele m(m > n), fără să ne intereseze ordinea pieselor,
n
ı̂n Cm moduri. Câte din acestea vor conţine j piese defecte? Putem alege cele j piese
defecte, din cele k, ı̂n Ckj moduri, iar celelalte n − j care nu sunt defecte ı̂n Cm−k
n−j
moduri.
Probabilitatea căutată va fi
n−j
Cm−k Ckj
n
. (1.13)
Cm
În cazul nostru, m = 550, k = 11, n = 25, j = 2, astfel ı̂ncât probabilitatea căutată va fi
2 23
C11 C550
25
= 0, 12.
C550
Dacă ı̂nsumăm probabilităţile (1.13) după j, 0 6 j 6 n, rezultatul va fi 1, deoarece au
fost luate ı̂n considerare toate posibilităţile. Am demonstrat formula
k
X
Ckj Cm−k
n−j n
= Cm
j=0
cu argumente probabilistice.
Exemplul 1.6.2 Dacă se amestescă un pachet de cărţi, care este probabilitatea ca cei
patru aşi să apară unul după altul ?
Sunt 52 de cărţi dintre care patru aşi. Un rezultat posibil al experienţei este o ı̂nşiruire
de 52 de cărţi, adică o permutare a celor 52 de cărţi. Sunt 52! cazuri posibile. În câte din
aceste cazuri cei patru aşi se găsesc unul după altul? Cei patru aşi pot apare consecutiv
ı̂n 49 × 4! moduri. Restul de 48 de cărţi se pot aranja ı̂n 48! moduri. Folosind principiul
multiplicării, numărul cazurilor favorabile va fi 4! × 49 × 48!. Probabilitatea căutată va fi
49! × 4
= 0, 00003.
52!
Exemplul 1.6.3 Urna U1 conţine două bile roşii şi patru albe, urna U2 conţine o bilă
roşie şi două albe iar urna U3 conţine cinci bile roşii şi patru bile albe. Fie Ai evenimentul
de a extrage o bilă dintr-o urnă oarecare Ui , i = 1, 3. Presupunem că probabilitatea
de a extrage o bilă din urna Ui este P (A1 ) = 1/3, din U2 este P (A2 ) = 1/6 şi din
U3 , P (A3 ) = 1/2. Se cere probabilitatea de a extrage o bilă roşie.
Fie R evenimentul de a extrage o bilă roşie. Observăm că P (R) depinde ı̂n primul
rı̂nd de urna din care s-a făcut extragerea şi apoi de structura urnei din care am făcut
extragerea, adică R este reuniunea evenimentelor disjuncte A1 ∩ R, A2 ∩ R, A3 ∩ R. Facem
observaţia că A1 , A2 , A3 formează un sistem complet de evenimente. Astfel
3
[ 3
X 3
X 4
P (R) = P ( (Ai ∩ R)) = P (Ai ∩ R) = P (Ai )P (R|Ai ) =
i=1 i=1 i=1
9
Presupunem acum că rezultatul experienţei este o bilă roşie, dar nu ştim din ce urnă
provine. Dorim să calculăm probabilitatea ca bila roşie să provină din urna U1 , adică
P (A1 |R). Conform formulei lui Bayes
P (A1 )P (R|A1 ) 1
P (A1 |R) = = .
P (R) 4
Câmp de probabilitate 25
La fel
1 5
P (A2 |R) = P (A3 |R) = .
8 8
Observăm că probabilităţile condiţionate P (A1 |R), P (A2 |R), P (A3 |R) s-au modificat faţă
de probabilităţile iniţiale P (A1 ), P (A2 ), P (A3 ) ı̂ntr-un mod care confirmă intuiţia, adică
dacă s-a extras o bilă roşie, probabilitatea ca să aparţină urnei U3 este mai mare deoarece
U3 are un procent mai ridicat de bile roşii şi, de asemenea, probabilitatea de a selecta o bilă
roşie din U3 este mai mare decât din U2 sau U1 . Adesea P (A1 ), P (A2 ), P (A3 ) se numesc
probabilităţi apriori, iar P (A1 |R), P (A2 |R), P (A3 |R) se numesc probabilităţi aposteriori.
Exemplul 1.6.4 Un canal transmite semnale sub formă de şiruri formate din cifrele 0
şi 1. În canal pot apare perturbări care produc erori, astfel ı̂ncât ı̂n loc de 1 apare
0 sau invers. Să presupunem că prin B1 şi B2 ı̂nţelegem evenimentele care constau ı̂n
transmiterea cifrelor 1, respectiv 0, iar recepţionarea cifrelor 1 şi 0 le considerăm ca fiind
evenimentele aleatoare A1 şi respectiv A2 . Probabilităţile apriori pentru transmiterea lui
1 sau 0 sunt
P (B1 ) = p P (B2 ) = 1 − p = q
iar probabilitatea de a recepţiona 0, dacă s-a transmis 1, este egală cu q10 , pe când pro-
babilitatea de a recepţiona 1, dacă s-a transmis 0, este q01 . Să calculăm probabilităţile
aposteriori P (Bj |Ak ), j, k = 1, 2.
Conform formulei lui Bayes avem
P (Ak |Bj )P (Bj )
P (Bj |Ak ) = , j, k = 1, 2.
P (B1 )P (Ak |B1 ) + P (B2 )P (Ak |B2 )
Deoarece avem P (A2 |B1 ) = q10 , P (A1 |B2 ) = q01 şi notând p10 = 1 − q10 , p01 = 1 − q01 se
deduce
pp10 p(1 − p10 )
P (B1 |A1 ) = , P (B1 |A2 ) = ,
pp10 + (1 − p)(1 − p01 ) p(1 − p10 ) + (1 − p)p01
(1 − p)(1 − p10 ) (1 − p)p01
P (B2 |A1 ) = , P (B2 |A2 ) = .
pp10 + (1 − p)(1 − p01 ) p(1 − p10 ) + (1 − p)p01
Să observăm că
P (A1 ) = P (B1 )P (A1 |B1 ) + P (B2 )P (A1 |B2 ) = pp10 + (1 − p)(1 − p01 ),
iar
P (A2 ) = P (B1 )P (A2 |B1 ) + P (B2 )P (A2 |B2 ) = p(1 − p10 ) + (1 − p)p01 = 1 − P (A1 ).
În particular, ı̂n ipoteza că este vorba de un canal simetric (q01 = q10 şi deci p01 = p10 ),
iar p = q = 12 se deduce
1 1
P (A1 ) = pp10 + (1 − p)(1 − p10 ) = , P (A2 ) = p(1 − p10 ) + (1 − p)p10 =
2 2
P (B1 |A2 ) = P (B2 |A1 ) = 1 − p10 , P (B1 |A1 ) = P (B2 |A2 ) = p10 .
ceea ce era previzibil.
26 Câmp de probabilitate
Exemplul 1.6.5 Demonstrăm că dacă Ai , i ∈ I, I o mulţime finită de indici, {Ai }i∈I
formează un sistem complet de evenimente, atunci
[ X
P (( Ai )|A) = P (Ai |A). (1.14)
i∈I i∈I
Exemplul 1.6.6 Fie I o mulţime finită de indici, {Ai }i∈I un sistem complet de eveni-
mente şi A, B două evenimente oarecare. Atunci
[ X
P ( (A ∩ Ai )|B) = P (A|(Ai ∩ B))P (Ai |B) (1.15)
i∈I i∈I
Notăm cu Ai evenimentul extragerii unei bile albe din urna Ui . Notăm şi Bk eveni-
mentul care constă ı̂n extragerea a k bile albe şi n − k bile negre, adică
Schema lui Poisson permite rezolvarea problemelor ı̂n care se cere probabilitatea realizării
de k ori a unor evenimente A1 , A2 , . . . , An atunci când se repetă de n ori aceste experienţe,
presupuse independente, când cunoaştem P (Ai ) = pi , i = 1, n.
Exemplul 1.7.1 Într-un atelier sunt trei maşini. Prima dă 0,9 % rebut, a doua 1 % şi a
treia 1,3 %. Se ia la ı̂ntâmplare câte o piesă de la fiecare maşină. Se cere probabilitatea
ca două din piese să fie bune şi una rebut.
Schema lui Bernoulli. Presupunem că ı̂n schema lui Poisson urnele U1 , U2 , . . . , Un
sunt identice. Atunci putem lua
p1 = p2 = . . . = pn = p, q 1 = q2 = . . . = qn = q
Probabilitatea extragerii a k bile albe se va obţine calculând coeficientul lui xk din poli-
nomul
P (x) = (px + q)n ,
adică va fi
Cnk pk q n−k .
Recunoaştem ı̂n această expresie termenul general al ridicării la puterea n a binomului px+
q. Pentru acest motiv schema se mai numeşte binomială. Deoarece urnele sunt identice,
28 Câmp de probabilitate
putem considera că toate extragerile se fac dintr-o singură urnă, bila extrasă punându-se
ı̂n urnă după fiecare extragere. Obţinem astfel schema lui Bernoulli. Probabilitatea de a
extrage k bile albe din n extrageri dintr-o urnă, punându-se de fiecare dată bila ı̂napoi,
este
Pn,k = Cnk pk q n−k ,
unde p este probabilitatea oţinerii unei bile albe dintr-o singură extragere şi q = 1 − p.
Schema lui Bernoulli se mai numeşte shema bilei revenite (ı̂ntoarse).
n!
pn1 1 pn2 2 . . . pnmm .
n1 ! n2 ! . . . nm !
Această schemă rezolvă problemele ı̂n care se cere probabilitatea ca ı̂n n efectuări ale
experienţei evenimentul Ai să se realizeze de ni ori, A1 , A2 , . . . , Am fiind un sistem complet
de evenimente şi P (Ai ) = pi , i = 1, m. Presupunem că ı̂n cele n efectuări ale experienţei
s-au obţinut succesiv
A1 . . . A1 A2 . . . A2 . . . Am . . . Am .
| {z } | {z } | {z }
n1 n2 nm
p . . . p p . . . p . . . pm . . . pm .
| 1 {z }1 | 2 {z }2 | {z }
n1 n2 nm
Acelaşi rezultat ı̂l obţinem pentru orice altă ordine stabilită dinainte ı̂n care Ai apare de
ni ori. Rămăne să vedem ı̂n câte moduri putem scrie cele n simboluri, dintre care n1 egale
cu A1 , n2 cu A2 , . . . , nm cu Am .
n2
Cnn1 Cn−n1
n3
Cn−n1 −n2
nm
. . . Cn−n1 −n2 −...nm−1
=
n! (n − n1 )! (n − n1 − . . . nm−1 )!
= ... =
n1 ! (n − n1 )! n2 ! (n − n1 − n2 )! nm ! (n − n1 − . . . − nnm )!
n!
= .
n1 ! . . . nm !
Câmp de probabilitate 29
Exemplul 1.7.3 Se aruncă un zar de 5 ori. Care este probabilitatea ca exact de două
ori să apară faţa cu un punct şi exact de 2 ori să apară faţa cu două puncte?
Avem:
n = 5, n1 = 2, n2 = 2, n3 = 1,
1 1 2
p1 = , p2 = , p3 = ,
6 6 3
5! 1 1 2 5
P4,2,2,1 = × ( )2 ( )2 ( ) = .
2! × 2! × 1! 6 6 3 324
Schema hipergeometrică. O urnă conţine a bile albe şi b bile negre. Din această
urnă se extrag n bile (n 6 a + b) pe rând, fără a pune bila extrasă ı̂napoi ı̂n urnă (ceea
ce este echivalent cu a extrage n bile deodată). Se cere probabilitatea ca din cele n
bile extrase, k să fie albe (k 6 a) şi n − k negre (n − k 6 b). Pentru a calcula acestă
probabilitate vom stabili numărul cazurilor posibile şi numărul cazurlor favorabile.
n
Numărul cazurilor posibile este: Ca+b .
Numărul cazurilor favorabile: un grup de k bile albe dintr-un total de a bile albe
poate fi luat ı̂n Cak moduri; un grup de n − k bile negre din totalul de b bile negre poate
fi obţinut ı̂n Cbn−k moduri. Un grup de k bile albe şi n − k bile negre poate fi obţinut,
conform principiului multiplicării, ı̂n Cak Cbn−k moduri. Probabilitatea căutată este
Cak Cbn−k
n
.
Ca+b
Exemplul 1.7.4 La o tombolă sunt 400 bilete dintre care 4 câştigătoare. O persoană
cumpără 10 bilete. Care este probabilitatea să nu se găsească nici un bilet câştigător?
Avem
a = 4, b = 396,
k = 0, n − k = 10, n = 10,
C40 C396
10
p= 10
= 0, 903.
C400
În general, dacă urna conţine ai bile de culoarea ci , i = 1, m, probabilitatea de a obţine
n1 bile de culoarea c1 , n2 bile de culoarea c2 , . . . , nm bile de culoarea cm când facem
n = n1 + n2 + . . . + nm extracţii, este egală cu
Can11 Can22 . . . Canmm
.
Can1 +a2 +...+am
Exemplul 1.7.5 O urnă conţine 7 bile albe, 7 bile negre şi 6 verzi. Se extrag 9 bile.
Care este probabilitatea să obţinem câte 3 de fiecare culoare?
Avem
a1 = 7, a2 = 7, a3 = 6,
n1 = 3, n2 = 3, n3 = 3,
C73 C73 C63
p= 9
= 0, 145.
C20
30 Câmp de probabilitate
a) ∀A ∈ K ⇒ Ā ∈ K;
[
b) (An )n∈IN ∗ ⊂ K ⇒ An ∈ K.
n∈IN ∗
C1. ∅ ∈ K şi E ∈ K.
Într-adevăr, deoarece K 6= ∅ ⇒ ∃A ∈ K ⇒ Ā ∈ K → A ∪ Ā ∈ K ⇒ E ∈ K
E ∈ K ⇒ Ē ∈ K ⇒ ∅ ∈ K.
C3. Orice intersecţie (finită sau numărabită) de elemente din K este de asemenea ı̂n K.
Fie I o mulţime de indici finită sau numărabilă
\ [ \
Ai = Āi ∈ K ⇒ Ai ∈ K
i∈I i∈I i∈I
C6. Dacă (An )n∈IN ∗ ⊂ K, atunci lim An ∈ K, dacă această limită există. În acest caz
n→∞
Observaţia 1.8.1 Într-un câmp infinit de evenimente sunt permise operaţiile clasice cu
mulţimi.
a) ∀A ∈ K : m(A) > 0;
b) m(∅) = 0;
[ X
c) m( Ai ) = m(A) pentru (Ai )i∈I ⊂ K cu Ai ∩ Aj = ∅ i 6= j i, j ∈ I, iar I o
i∈I i∈I
mulţime cel mult numărabilă de indici.
Observaţia 1.8.4 Din mulţimea funcţiilor de evenimente care satisfac axiomele a)-c)
interesează numai acelea pentru care m(E) < ∞, E fiind evenimentul cert.
Propoziţia 1.8.1 Dacă m(E) < ∞ atunci pentru orice eveniment A avem m(A) < ∞.
P (M ∈ E) = 1 = km(E)
de unde
1
k=
m(E)
şi deci obţinem probabilitatea
m(A)
P (M ∈ A) = .
m(K)
Exemplul 1.8.2 Vom arăta cum se pote construi o funcţie de probabilitate pentru orice
mulţime numărabilă E = {e1 , e2 , . . . , en , . . .}. Fiecărui punct ei ı̂i ataşăm un număr pi
satisfăcând condiţiile
X∞
∀i ∈ IN ∗ : pi > 0, pi = 1
i=1
Exemplul 1.8.3 Fie B corpul borelian generat de mulţimea părţilor deschise de pe axa
reală IR şi o funcţie f definită pe E ∈ B cu valori ı̂n IR, integrabilă ı̂n raport cu măsura
Lebesque [vezi 22] şi care ı̂ndeplineşte condiţiile
Z
f (x) > 0, f (x)dx = 1.
E
Se demonstrează că P satisface toate axiomele probabilităţii. Astfel de funcţii se pot găsi.
De exemplu
1 1 − x2
f (x) = sau f (x) = √ e 2.
π(1 + x2 ) 2π
În câmpurile infinite de probabilitate se păstrează noţiunile şi proprietăţile din câm-
purile finite de probabilitate.
1. Probabilitatea condiţionată se defineşte plecând de la relaţia
P (A ∩ B)
P (A|B) = , dacă P (B) 6= 0.
P (B)
Se poate demonstra că tripletul { E, K, PB } este un câmp borelian de probabilitate.
Într-adevăr,
– P (A|B) > 0 deoarece P (A ∩ B) > 0 şi P (B) > 0.
– Dacă A = E atunci, deoarece E ∩ B = B, rezultă
P (B)
P (E|B) = = 1.
P (B)
– Dacă (Ai )i∈I ⊂ K este o familie cel mult număarbilă de evenimente incompati-
bile două câte două, atunci şi evenimentele (A ∩ Ai )i∈I sunt incompatibile două
câte două şi
[ [
P (B ∩ ( Ai )) P ( (B ∩ Ai ))
\ i∈I i∈I
P ( Ai |B) = = =
i∈I
P (B) P (B)
34 Câmp de probabilitate
X
P (B ∩ Ai )
i∈I
X
= = P (Ai |B).
P (B) i∈I
2. Formula probabilităţii totale şi formula lui Bayes rămân valabile dacă considerăm
sisteme complete de evenimente numărabile. Fie (Ai )i∈I ⊂ [ K o familie cel mult
numărabilă de evenimente incompatibile două câte două cu Ai = E şi P (Ai ) 6=
i∈I
0, i ∈ I, atunci X
P (A) = P (Ai )P (A|Ai )
i∈I
şi
P (Ai )P (A|Ai )
P (Ai |A) = X i ∈ I.
P (Aj )P (A|Aj )
j∈I
Definiţia 1.8.6 Se spune că evenimentele (An )n∈IN ⊂ K sunt independente dacă orice
număr finit de evenimente din acest şir este independent.
A01 = A1
A02 = A2 \ A1
n
[
A0n+1 = An+1 \ ( Aj ).
j=1
Evenimentele (A0n )n∈IN ∗ prin modul ı̂n care au fost construite sunt incompatibile două
câte două; ı̂n plus A0n ⊆ An , n ∈ IN ∗ . Demonstrăm că
[ [
A0n = An .
n∈IN ∗ n∈IN ∗
[ [
Evident A0n ⊂ An .
n∈IN ∗ n∈IN ∗ [
Demonstrăm incluziunea contrară. Fie e ∈ An şi n0 cel mai mic număr natural
n∈IN ∗
n pentru care e ∈ An0 ; rezultă deci
[
e ∈ A0n0 ⊂ A0n ,
n∈IN ∗
Câmp de probabilitate 35
[ [
An ⊂ A0n
n∈IN ∗ n∈IN ∗
Propoziţia 1.8.3 Inegalitatea lui Boole. Dacă (Ai )i∈I ⊂ K este o mulţime cel mult nu-
mărabilă de evenimente, atunci
\ X
P ( Ai ) > 1 − P (Āi ).
i∈I i∈I
deci \ [ [
P ( Ai ) = P ( Āi ) = 1 − P ( Āi )
i∈I i∈I i∈I
dar [ X
P ( Āi ) 6 P (Āi )
i∈I i∈I
Definiţia 1.8.7 Un şir de evenimente (An )n∈IN ∗ este ascendent (descendent) dacă Aj ⊂
(⊃)Ai pentru j < i, i, j ∈ IN ∗ , i 6= j.
Propoziţia
\ 1.8.4 Fie (An )n∈IN ∗ un şir descendent de evenimente din K. Dacă A =
An , atunci
n∈IN ∗
\
lim P (An ) = P ( An ) = P (A).
n→∞
n∈IN ∗
lim P (An ) = 0.
n→∞
lim P (Cn ) = 0
n→∞
Dar
P (Cn ) = P (An \ A) = P (An ) − P (A)
şi deci
lim P (An ) = P (A).
n→∞
Propoziţia
[ 1.8.5 Fie (An )n∈IN ∗ un şir ascendent de evenimente din K. Dacă A =
An , atunci
n∈IN ∗
[
lim P (An ) = P ( An ) = P (A).
n→∞
n∈IN ∗
Problema 1.5 Un circuit electric are patru relee a căror funcţionare este egal prob-
abilă (funcţionează şi se pot defecta independent unul de celălalt), montate după Figura
1.1. Calculaţi probabilitătea ca ı̂ntre punctele A şi B să nu circule curentul.
Soluţie. Ntoăm cu Ai evenimentul ”releul Ri este defect”. Curentul nu circulă atunci
când se realizează evenimentul
Cum orice releu poate fi ı̂n două poziţii, ı̂nchis sau deschis, rezultă că numărul cazurilor
posibile este 24 = 16.
Probabilitatea căutată este 2 · 4/16 − 8/16 − 3 · 2/16 + 1/16.
Problema 1.6 Trei mesaje sunt transmise pe un canal de comunicare, pe fiecare dintre
ele putând fi transmis cu o anumită exactitate. Transmiterea unui mesaj poate conduce
la unul din următoarele evenimente:
a) A1 = { mesajul este transmis ı̂ntr-o formă corectă }.
iii) C = { cel puţin două mesaje sunt parţial sau complet eronate }.
Soluţie. Notăm următoarele evenimente astfel:
A11 = { primul mesaj transmis este corect },
A12 = { al doilea mesaj transmis este corect },
A13 = { al treilea mesaj transmis este corect },
A21 = { primul mesaj transmis este parţial eronat },
A22 = { al doilea mesaj transmis este parţial eronat },
A23 = { al treilea mesaj transmis este parţial eronat },
A31 = { primul mesaj transmis este complet eronat },
Câmp de probabilitate 39
Problema 1.10 Un bloc de 100 de biţi este transmis pe un canal de comunicaţie binar
cu probabilitatea de eroare pe bit 10−3 . Să se găseacă probabilitatea ca blocul să conţină
trei sau mai mult de trei erori.
R:1.5 · 10−4 .
Problema 1.11 Un asamblor de calculatoare foloseşte circuite din trei surse: A, B
şi C. Ele pot fi defecte cu probabilităţile de respectiv 0,001, 0,005 şi 0,01. Dacă se ia un
circuit la ı̂ntı̂mplare şi se constată că este defect, care este probabilitatea ca el să provină
de la sursa A sau B.
Soluţie. Fie A1 evenimentul ca circuitul să provină de la sursa A, A2 de la sursa B
şi A3 să provină de la sursa C. Fie D evenimentul ca circuitul folosit să fie defect, iar
D|Ai , i = 1, 2, 3 evenimentul ca circuitul folosit să fie defect ştiind că el provine de la sursa
A, B şi respectiv C. Avem
Problema 1.12 Multe sisteme de comunicaţie pot fi modelate ı̂n felul următor: mai
ı̂ntâi utilizatorul introduce 0 sau 1 ı̂n sistem şi semnalul corespunzător este transmis; ı̂n
al doilea rând ia o decizie asupra a ceea ce s-a introdus ı̂n sistem pe baza semnalului
receptionat. Presupunem că utilizatorul transmite 0 cu probabilitatea 1 − p şi 1 cu pro-
babilitatea p şi că cel ce receptionează ia o decizie eronată cu probabilitatea ε. Pentru
i = 0, 1 fie Ai evenimentul că la intrare s-a introdus i şi Bi evenimentul că decizia celui
ce receptionează a fost i. Să se calculeze probabilităţile P (Ai ∩ Bj ) pentru i = 0, 1 şi
j = 0, 1.
Presupunem că probabilităţile ca la intrare să se transmită 0 sau 1 sunt egale cu 1/2.
Să se calculeze probabilitatea evenimentului B1 . Dar probabilitatea de a se fi transmis 0
ştiind că s-a receptionat 1? Dar probabilitatea de a se fi transmis 1 ştiind că s-a receptionat
1?
Soluţie.
Câmp de probabilitate 41
Se obţin probabilităţile
P (A0 ∩ B0 ) = (1 − p)(1 − ε)
P (A0 ∩ B1 ) = (1 − p)ε
P (A1 ∩ B0 ) = pε
P (A1 ∩ B1 ) = p(1 − ε).
Evenimentele A1 şi A2 formează un sistem complet de evenimente pentru spaţiul de selecţie
E = {0, 1}. Pentru a calcula probabilitatea evenimentului B1 aplicăm formula proba-
bilităţii totale:
P (B1 ) = P (A0 )P (B1 |A0 ) + P (A1 )P (B1 |A1 ) = 1/2ε + 1/2(1 − ε) = 1/2.
Aplicând formula lui Bayes obţinem probabilităţile (pe care le-am mai numit posteori);
P (B1 |A0 )P (A0 ) ε/2
P (A0 |B1 ) = = =ε
P (B1 ) 1/2
P (B1 |A1 )P (A1 ) (1 − ε)/2
P (A1 |B1 ) = = = 1 − ε.
P (B1 ) 1/2
Dacă ε este mai mic decât 1/2 atunci este mai probabil ca la intrare să avem 1 decât 0
dacă la ieşire s-a primit semnalul 1.
Problema 1.13 Un sistem constă dintr-o unitate centrală şi trei unităţi periferice.
Sistemul funcţionează la capacitate optimă dacă unitatea centrală şi două unităţi per-
iferice funcţionează. Să se calculeze probabilitatea ca sistemul să funcţioneze la capacitate
optimă presupunând că defectarea unităţilor se face independent una de cealalta.
Soluţie. Definim următorele evenimente: A-unitatea centrală funcţionează; Bi -unita-
tea periferică i funcţionează, unde i = 1, 2, 3. Evenimentul F -două sau mai multe unităţi
periferice funcţionează ı̂nseamnă că toate trei unităţile periferice funcţionează sau exact
două unităţi periferice funcţionează. Astfel:
F = (B1 ∩ B2 ∩ B̄3 ) ∪ (B1 ∩ B̄2 ∩ B3 ) ∪ (B̄1 ∩ B2 ∩ B3 )∪
∪(B1 ∩ B2 ∩ B3 ).
Observăm că evenimentele de mai sus din paranteze sunt indepandente ı̂ntre ele şi deci
P (F ) = P (B1 )P (B2 )P (B̄3 ) + P (B1 )P (B̄2 )P (B3 )+
+P (B̄1 )P (B2 )P (B3 ) + P (B1 )P (B2 )P (B3 ) =
= 3(1 − a)2 a + (1 − a)3
unde s-a presupus că fiecare periferic se defectează cu probabilitatea egală cu a, astfel ı̂ncât
P (Bi ) = 1 − a şi P (B̄i ) = a. Evenimentul ”sistemul funcţionează la capacitate optimă”
este A ∩ F . Dacă presupunem că unitatea centrală se defectează cu probabilitatea p,
atunci:
Fie a = 10%, atunci toate cele trei periferice sunt funcţionale (1 − a)3 = 72, 9% din timp
iar două sunt funcţionale şi una defectă 3(1 − a)2 a = 24, 3% din timp. Astfel două sau
42 Câmp de probabilitate
mai multe, periferice funcţtionează 97, 2% din timp. Presupunem că unitatea centrală nu
este foarte bună, şi anume p = 20%, atunci sistemul funcţionează la capacitate optimă
numai 77, 8% din timp, aceasta datorită faptului că unitatea centrală se defectează.
Presupunem că s-a introdus ı̂n sistem o a doua unitate centrală identică cu prima,
adică p = 20% şi sistemul funcţionează la capacitate optimă dacă măcar una din cele două
unităţi centrale funcţionează. Să calculăm cât la sută din timp funcţionează sistemul ı̂n
acest caz. Definim evenimentele Ai -unitatea centrală i = 1, 2 funcţionează. Evenimentul
”sistemul funcţionează la capacitate optimă” este, ı̂n acest caz, (A1 ∩F )∪(A2 ∩F ). Atunci
Aceasta a condus la o creştere de 15.5% a timpului de funcţionare faţă de cazul ı̂n care
sistemul funcţiona cu o singură unitate centrală.
Problema 1.14 Un sistem de comunicaţie transmite informaţie bimară pe un canal
care introduce la transmiterea unui bit erori aleatoare cu probabilitatea ε = 10−3 . Fiecare
bit este transmis de trei ori şi ı̂n funcţie de semnalul majoritar recepţionat se decide
informaţia ca fiind cea transmisă. Să se calculeze probabilitatea ca decizia luată să fie
incorectă.
Soluţie. Cel ce recepţionează va lua o decizie eronată dacă canalul introduce două
sau mai multe erori. Dacă privim fiecare transmitere ca o experienţă Bernoulli ı̂n care
realizarea evenimentului corespunde introducerii unei erori, atunci probabilitatea de a se
produce două sau mai multe erori ı̂n trei experienţe Bernoulli este
P [k > 2] = C32 (0, 001)2 (0, 999) + C33 (0, 001)3 ≈ 3 × 10−6
Problema 1.15 O informaţie telegrafică constă din semnale ”liniuţe” şi ”puncte”.
În medie se deformează 2/5 din semnalele cu ”puncte” şi ”liniuţe”. Este cunoscut că
semnalele ”puncte” şi ”liniuţe” se ı̂ntâlnesc ı̂n raportul 5/3.
Să se determine probabilitatea ca:
a) primind un semnal consacrat, acesta să fie ”punct” şi
b) probabilitatea ca el să fie ”liniuţă”.
Soluţie. Notăm cu A evenimentul de primire a semnalului ”punct”, iar prin B eveni-
mentul de primire a semnalului ”liniuţă”. Se pot considera următoarele ipoteze: H1 este
transmis semnalul ”punct”, H2 este transmis semnalul ”liniuţă”. Avem
P (H1 ) 5
= , P (H1 ) + P (H2 ) = 1.
P (H2 ) 3
deci
5 3
P (H1 ) = , P (H2 ) =
8 8
Câmp de probabilitate 43
şi
3 1 2 2
P (A|H1 ) = , P (A|H2 ) = , P (B|H1 ) = , P (B|H2 ) = .
5 3 5 3
Folosind formula probabilităţii totale obţinem:
53 31 1 52 32 1
P (A) = + = , P (B) = + = .
85 83 2 85 83 2
Avem cele două probabilităţi:
P (H1 )P (A|H1 ) 3
a) P (H1 |A) = = ,
P (A) 4
P (H2 )P (B|H2 ) 1
b) P (H2 |B) = = .
P (B) 2
44 Câmp de probabilitate
Capitolul 2
45
46 Variabile aleatoare discrete
• variabila aleatoare ale cărei valori reprezintă numărul de puncte apărute pe o faţă
a zarului, la aruncarea unui zar.
Exemple de variabile aleatoare de tip continuu:
• timpul de funcţionare a unui aparat, până la prima defectare,
• viteza unei particule, care se modifică ı̂n funcţie de ciocnirile cu alte particule.
În fiecare din aceste exemple, unui fenomen, supus unor circumstanţe aleatoare, i se
asociază un număr real, deci se stabileşte o corespondenţă ı̂ntre spaţiul de selecţie E conve-
nabil ales şi IR. În practică, de multe ori este dificil să găsim valorile acestor corespondenţe,
dar e posibil să determinăm ”cât de des” sunt luate ele. Astfel, ı̂n ultimul exemplu, putem
aprecia cu ce probabilitate viteza X a particulei este mai mică decât 0,1, deci putem
calcula P ({ e ∈ E | X(e) < 0, 1 }).
Definiţia 2.1.2 Funcţia
F : IR → [0, 1]
definită prin
F (x) = P ({ e ∈ E | X(e) < x}) (2.2)
se numeşte funcţie de repartiţie.
Determinarea pentru orice x ∈ IR a probabilităţii cu care X ia valori mai mici ca x,
ı̂nseamnă definirea funcţiei de repartiţie.
χA : E → {0, 1}
1, dacă e ∈ A
χA (e) =
0, dacă e ∈
/ A.
Funcţia χA se numeşte indicatoarea evenimentului A (variabila aleatoare a evenimentului
A).
Variabile aleatoare discrete 47
Această idee poate fi extinsă ı̂n sensul că putem considera o experienţă şi legat de
aceasta un sistem complet de evenimente (Ai )16i6n . Definim funcţia X pe acest sistem
complet de evenimente convenind să-i atribuim valoarea n − j ı̂n cazul ı̂n care s-a realizat
evenimentul Aj , j = 1, n. Astfel, variabila aleatoare X s-a definit prin relaţia:
n − j, dacă e ∈ Aj
X(e) =
0, ı̂n rest
pentru j = 1, n.
Fie tabelul
x 1 x2 . . . x n
X: (2.3)
p1 p2 . . . pn
n
X
cu pi > 0, i = 1, n, pi = 1. Numerele xi se numesc valorile variabilei aleatoare,
i=1
iar pi probabilităţile cu care variabila aleatoare ia aceste valori. Tabelul 2.3 se numeşte
tabloul de repartiţie al variabilei aleatoare X.
Facem convenţia ca ı̂n tabloul de repartiţie să se treacă valorile variabilei aleatoare
distincte, iar valorile luate cu probabilitatea 0 să nu fie trecute.
Observaţia 2.2.1 Fie xk o valoare a variabilei aleatoare X. Valorii xk ı̂i corespunde, ı̂n
general, o mulţime de evenimente elementare. Rezolvând ecuaţia xk = X(e) ı̂n raport
cu e obţinem e = X −1 (xk ), ı̂n general, o funcţie multivocă, deci la un xk pot corespunde
mai multe valori ale lui e. Reuniunea acestora formează un eveniment Ak al câmpului
(k 6 n). Deoarece valorile xk sunt diferite, evenimentele Ak sunt incompatibile două câte
două şi formează un sistem complet de evenimente. Observăm că
şi
n
X n
X n
[
pk = P (Ak ) = P ( Ak ) = P (E) = 1.
k=1 k=1 k=1
Deci dată o variabilă aleatoare, putem să-i ataşam un sistem complet de evenimente.
Reciproca afirmaţiei este tocmai Exemplul 2.2.2.
Exemplul 2.2.2 Considerăm experienţa care constă ı̂n aruncarea unui zar omogen. Fie
variabila aleatoare X care ia ca valori numărul de puncte apărute pe faţa zarului. Să se
scrie tabloul de repartiţie al acestei variabile aleatoare.
Mulţimea evenimentelor elementare este {1, 2, 3, 4, 5, 6} şi ea coincide, ı̂n acest caz, cu E
!
1 2 3 4 5 6
X: 1 1 1 1 1 1 .
6 6 6 6 6 6
Dacă considerăm evenimentele A şi B legate de aceeaşi experienţă şi anume A evenimentul
care constă ı̂n obţinerea unui număr par de puncte, iar B evenimentul care constă ı̂n
48 Variabile aleatoare discrete
obţinerea un număr impar de puncte şi definim variabila aleatoare Y care ia valoarea
0 dacă am obţinut un număr par de puncte şi 1 dacă am obţinut un număr impar de
puncte, atunci A şi B formează un sistem complet de evenimente şi putem defini variabila
aleatoare Y astfel: !
0 1
Y : 1 1 .
2 2
Exemplul 2.2.3 Considerăm o experienţă care constă ı̂n extragerea a trei bile, câte una
din fiecare din urnele U1 , U2 , U3 ce conţin respectiv 2 bile albe şi 3 negre, 3 bile albe şi 5
negre, 8 bile albe şi 2 negre. Definim variabila aleatoare X care ia ca valori numărul de
de bile albe obţinute la o extragere. Se cere tabloul de repariţie a lui X.
Notăm cu Ai şi Āi evenimentul de a extrage o bilă albă, respectiv neagră din urna
Ui , i = 1, 3. Variabila aleatoare X poate lua valorile 0, 1, 2, 3 după cum s-au extras respec-
tiv 0, 1, 2, 3 bile albe. Observăm că evenimentele Ai sunt independente şi incompatibile
două câte două. Atunci putem calcula
3
\ 3
Y
P ({X = 0}) = P ( Āi ) = P (Āi ) = 0, 075,
i=1 i=1
De cele mai multe ori ı̂n calcule este suficient să cunoaştem valorile pe care le ia o
variabilă aleatoare şi probabilităţile respective. Dar, ı̂n general, cunoaşterea acestor date
nu este suficientă pentru determinarea completă a variabilei aleatoare, aşa cum se va
vedea ı̂n exemplul următor.
Exemplul 2.2.4 Considerăm experienţa care constă ı̂n aruncarea unui zar. Legat de
aceasta ne imaginăm un joc: celui care aruncă zarul i se acordă 1 punct dacă apare una
din feţele cu 1 sau 2 puncte, 2 puncte dacă apare una din feţele cu 3 sau 4 puncte, 3
puncte dacă apare una din feţele cu 5 sau 6 puncte. Dacă notăm cu X variabila aleatoare
Variabile aleatoare discrete 49
Rezultă că cele două sisteme complete de evenimente sunt diferite şi deci numai aparent
variabilele aleatoare discrete simple coincid.
Orice variabilă aleatoare simplă dată prin tabloul său de repartiţie se poate reprezenta
grafic prin poligonul său de repartiţie: pe axa absciselor se trec valorile variabilei aleatoare,
iar pe axa ordonatelor probabilităţile.
Pentru o variabilă aleatoare discretă simplă se poate introduce funcţia de repartiţie
care este o funcţie scară dată de relaţa:
0, dacă x 6 x1 ,
p 1 , dacă x1 < x 6 x2 ,
p1 + p2 , dacă x2 < x 6 x3 ,
F (x) =
. . .
p + . . . + pn−1 , dacă xn−1 < x 6 xn ,
1
1, dacă xn < x.
În această definiţie am presupus, pentru simplitate, x1 < x2 < . . . < xn . Graficul acestei
funcţii este prezentat ı̂n Figura 2.1.
50 Variabile aleatoare discrete
Vom insista mai mult asupra proprietăţilor funcţiei de repartiţie ı̂n Capitolul 3. Să
studiem F ı̂n unul din punctele de discontinuitate, fie x = x2 . Pentru δ ∈ IR+ oricât de
mic, avem
F (x2 + δ) = P ({X < x2 + δ}) = p1 + p2
astfel ı̂ncât lim F (x) = p1 + p2 . Mai mult
x&x2
şi
F (x2 − δ) = P ({X < x2 − δ}) = p1 .
Rezultă că funcţia de repartiţie este continuă la stânga. Funcţia de repartiţie poate fi
scrisă restrâns cu ajutorul funcţiei unitate (treapta unitate)
0, dacă x 6 0,
u(x) = .
1, dacă x > 0,
Functia generalizată delta δ(t) (distribuţia Dirac) este definită cu ajutorul funcţiei unitate
astfel: Z x
u(x) = δ(t) dt
∞
şi deci
n
X
F (x) = p1 u(x) + p2 u(x − x1 ) + . . . + pn u(x − xn ) = pk u(x − xk ),
k=1
unde pk = P ({X < xk }). Putem introduce şi ı̂n cazul discret (pentru cazul continuu se
poate consulta Capitolul 3) funcţia densitate de probabilitate ţinând seama de legătura
dintre funcţia unitate şi distribuţia Dirac. Astfel, ţinând seama de faptul că (vezi Capitolul
3.2, Formula (3.9)): Z x
F (x) = f (t) dt
−∞
(X α (e) = (X(e))α .
În cazul ı̂n care α ∈ IN se poate renunţa la condiţia X(e) > 0, ∀e ∈ E, variabila aleatoare
poate fi interpretată ca produsul lui X cu el ı̂nsuşi. Fie variabilele aleatoare X şi Y având
tabelele de repartiţie
x1 x2 . . . x m
X: ,
p1 p2 . . . pm
y1 y2 . . . yn
Y : .
q1 q2 . . . qn
Fie A1 , A2 , . . . , Am respectiv B1 , B2 , . . . , Bn sistemul complet de evenimente generat de
variabila aleatoare X, respectiv Y . Avem, evident
P (Ai ) = pi , i = 1, m,
P (Bj ) = qj , j = 1, n.
Variabila aleatoare X + Y ia valoarea xi + yj pe submulţimea Ai ∩ Bj , dacă această
intersecţie este nevidă. Dacă Ai ∩ Bj = ∅, variabila aleatoare X + Y ia valoarea xi + yj cu
probabilitatea zero şi deci aceasta nu apare ı̂n tabel. Dacă notăm P (Ai ∩ Bj ) = pij , i =
1, m, j = 1, n atunci tabelul de repartiţie al variabilei aleatoare X + Y va fi
x1 + y1 x1 + y2 . . . x1 + yn . . . xm + yn
X +Y : .
p11 p12 ... p1n ... pmn
deoarece
P ({X1 + X2 = 0}) = P ({X1 = 0, X2 = 0}) = P ({X1 = 0})P ({X2 = 0}) = q 2 ,
P ({X1 + X2 = 1}) = P ({X1 = 1, X2 = 0} ∪ {X1 = 0, X2 = 1}) = 2pq,
P ({X1 + X2 = 2}) = P ({X1 = 1, X2 = 1}) = P ({X1 = 1})P ({X2 = 2}) = p2 ,
P ({X1 + X2 = 0}) = P ({X1 = 0, X2 = 0}) = q 2 .
La fel,
0 1
X1 X2 : ,
2pq + q p2
2
deoarece
P ({X1 X2 = 0}) = P ({X1 = 0, X2 = 0} ∪ {X1 = 1, X2 = 0) ∪ {X1 = 0, X2 = 1})
= 2pq + q 2 ,
P ({X1 X2 = 1}) = P ({X1 = 1, X2 = 1}) = p2 .
Variabile aleatoare discrete 53
iar pij probabilităţile definite de suma şi produsul celor două variabile aleatoare. Au loc
relaţiile:
n
X m
X
pi = pij , qj = pij .
j=1 i=1
Demonstraţie. Efectuând experienţa căreia ı̂i sunt asociate variabilele aleatoare, Y ia ı̂n
mod sigur una din valorile y1 , y2 , . . . , yn . Dacă X ia valoarea xi , rezultă că evenimentul
{X = xi } se realizează ı̂mpreună cu unul din evenimentele {Y = y1 }, . . . , {Y = yn }. Deci
{X = xi } = {X = xi } ∩ ({Y = y1 } ∪ {Y = y2 } ∪ . . . {Y = yn }) =
atunci pentru probabilităţile sumei (produsului) celor trei variabile aleatoare discrete sim-
ple au loc relaţiile
l
X m
X n
X
pijk = pij· ; pijk = p·jk ; = pi·k ;
k=1 i=1 j=1
Observaţia 2.2.5 Dacă X şi Y sunt astfel de variabile aleatoare atunci două evenimente
de forma {X = xi } şi {Y = yj }, i = 1, m, j = 1, n, sunt independente.
La fel pentru trei variabile aleatoare discrete simple. În cazul acesta
xi + y j
X +Y : , i = 1, m, j = 1, n;
p i qj
xi y j
XY : , i = 1, m, j = 1, n.
pi qj
sumarea referindu-se la toate valorile ı̂ntregi ale lui X, mai mici decât k. Dacă notăm cu
p(i) = P ({X = i}), q(j) = P ({Y = j}), r(k) = P ({Z = k}), obţinem
k
X k
X
r(k) = p(i)q(k − i) = p(k − j)q(j),
i=0 j=0
Propoziţia 2.2.2 Variabilele aleatoare simple X şi Y sunt independente dacă şi numai
dacă evenimentele {x0 < X < x} şi {y 0 < Y < y} sunt independente, oricare ar fi
x, x0 , y, y 0 ∈ IR.
[ [
= P( {X = xi })P ( {Y = yj }) = P ({x0 < X < x})P ({y 0 < Y < y}).
x0 <xi <x y 0 <yj <y
Reciproc, presupunem că evenimentele {x0 < X < x} şi {y 0 < Y < y} sunt independente,
oricare ar fi x, x0 , y, y 0 ∈ IR. Atunci
= P ({xi−1 < X < xi+1 })P ({yj−1 < Y < yj+1 }) = P ({X = xi })P ({Y = yj }).
Denumirea de medie este ı̂ndreptăţită dacă ţinem seama de sensul ei practic. Presupunem
că am repetat de N ori o experienţă care ne-a condus la variabila aleatoare X. Dacă
valoarea x1 este luată de n1 ori, valoarea x2 de n2 ori,. . ., valoarea xm de nm ori, unde
n1 + n2 + . . . + nm = N , atunci suma valorilor luate de variabila aleatoare X este n1 x1 +
n2 x2 + . . . + nm xm , iar media aritmetică a valorilor luate de X va fi
n 1 x1 + n 2 x2 + . . . + n m xm n1 n2 nm
= x1 + x2 + . . . + xm .
N N N N
n1
Dar reprezintă raportul dintre numărul cazurilor ı̂n care s-a luat valoarea x1 şi numărul
N
n2 nm
total de experimentări, adică p1 . La fel = p2 , . . . , = pm .
N N
Media aritmetică a valorilor luate de X poate fi aproximată cu p1 x1 +p2 x2 +. . .+pm xm ,
adică media lui X. Media lui X ne arată la ce valoare putem să ne aşteptăm pentru media
aritmetică a unui mare număr de valori ale lui X, obţinute ı̂n urma repetării experienţei
date.
56 Variabile aleatoare discrete
Exemplul 2.2.7 Variabilele aleatoare discrete simple din Exemplul 2.2.5, X1 şi X2 ,
având repartiţiile:
0 1
X 1 , X2 : ,
q p
au valoarea medie
M [Xi ] = 1p + 0q = p, i = 1, 2,
iar
0 1 2
X1 + X2 : ,
q 2pq p2
2
are media
M [X1 + X2 ] = 2pq + 2p2 = 2p.
Observaţia 2.2.7 Momentul iniţial de ordin 1 al variabilei alearoare X este chiar media
variabilei aleatoare.
2. Dacă X este o variabilă aleatoare simplă şi a ∈ IR o constantă, atunci au loc relaţiile:
Într-adevăr, deoarece
a + x1 a + x2 . . . a + xm
a+X : ,
p1 p2 ... pm
m
X m
X m
X
M [a + X] = (a + xi )pi = a pi + xi pi = a + M [X];
i=1 i=1 i=1
ax1 ax2 . . . axm
aX : ,
p1 p2 . . . pm
m
X m
X
M [aX] = (axi )pi = a xi pi = aM [X].
i=1 i=1
Variabile aleatoare discrete 57
3. Valoarea medie a unei variabile aleatoare este cuprinsă ı̂ntre cea mai mică şi cea mai
mare dintre valorile posibile ale variabilei aleatoare. Fie a = min xi şi A = max xi .
i i
m
X m
X
M [X] = xi p i > a pi = a,
i=1 i=1
m
X Xm ⇔ a < M [X] < A.
M [X] = xi p i < A pi = A,
i=1 i=1
4. Valoarea medie a unei sume finite de variabile aleatoare este egală cu suma valorilor
medii ale variabilelor aleatoare respective. Fie
x1 x2 . . . x m y1 y2 . . . yn
X: , Y : ,
p1 p2 . . . pm q1 q2 . . . q n
x1 + y1 x1 + y2 . . . xm + yn
X +Y : .
p11 p12 ... pmn
Atunci m X n
X
M [X + Y ] = (xi + yj )pij =
i=1 j=1
m
X n
X n
X m
X m
X n
X
= xi ( pij ) + yj ( pij ) = xi pi + yj qj = M [X] + M [Y ].
i=1 j=1 j=1 i=1 i=1 j=1
Demonstraţia pentru suma unui număr finit de variabile aleatoare se face prin
inducţie.
5. Valoarea medie a unui produs de variabile aleatoare independente este egală cu
produsul mediilor variabilelor considerate.
x1 x2 . . . x m y1 y2 . . . yn
X: , Y : ,
p1 p2 . . . pm q1 q2 . . . q n
x1 y1 x1 y2 . . . xm yn
XY : ,
p11 p12 . . . pmn
m X
X n
M [XY ] = xi yj pij .
i=1 j=1
Considerăm variabila aleatoare X având tabloul (2.4) şi fie Y = (X + a)2 , a ∈ IR.
Deoarece valorile lui Y sunt pozitive, rezultă că M [Y ] > 0 şi deci
m
X m
X m
X
2
M [Y ] = (xi + a) pi = xi pi + 2a xi pi + a2 =
i=1 i=1 i=1
Definiţia 2.2.6 Fie o variabilă aleatoare X şi o constantă a ∈ IR. Numim abaterea de
la constanta a a variabilei aleatoare X variabila X − a.
Propoziţia 2.2.3 Valoarea medie a abaterii oricărei variabile aleatoare este nulă.
De multe ori la o variabilă aleatoare ne interesează cât de mult se abat valorile variabilei
de la valoarea medie. Trebuie să stabilim un indicator numeric al ı̂mprăştierii valorilor
variabilei aleatoare ı̂n jurul valorii medii. Valoarea medie a abaterii de la medie nu poate
caracteriza această ı̂mprăştiere deoarece este nulă pentru orice variabilă aleatoare. Aba-
terile diferitelor valori, având semne diferite, se compensează. Este firesc să caracterizăm
ı̂mprăştierea variabilei aleatoare X prin valoarea medie a abaterilor absolute | X −M [X] |
pe care o numim abatere medie. Dacă X are tabloul de repartiţie
x1 x 2 . . . x n
X: ,
p1 p2 . . . p n
Variabile aleatoare discrete 59
p1 | x1 − m | +p2 | x2 − m | + . . . + pn | xn − m | .
Observaţia 2.2.10 Demonstrăm o formulă utilă ı̂n aplicaţii şi anume că dispersia unei
variabile aleatoare este egală cu media pătratului variabilei aleatoare minus pătratul me-
diei, adică
D2 [X] = M [X 2 ] − (M [X])2 .
Într-adevăr,
n
X
2
D [X] = pi (xi − m)2 =
i=1
n
X n
X
= pi xi − 2m pi xi + m2 = M [X 2 ] − 2m2 + m2 = M [X 2 ] − (M [X])2 .
i=1 i=1
Arătăm că dispersia unei variabile aleatoare X este, ı̂ntr-un anume sens, cea mai bună
valoare care caracterizează ı̂mprăştierea valorilor x1 , x2 , . . . , xn sau, cu alte cuvinte, M [X]
este punctul cel mai potrivit faţă de care trebuie să măsurăm devierile acestor valori. Acest
lucru rezultă din următoarea propoziţie.
n
X n
X
2
= pi (xi − m) + 2(m − x) pi (xi − m) + (m − x)2 =
i=1 i=1
n
X
= pi (xi − m)2 + 2(m − x)(m − m) + (m − x)2 =
i=1
1. Dispersia unei constante este nulă deoarece, ţinând seama de proprietăţile mediei,
n
X
2
=a pi (xi − m)2 = a2 D2 [X].
i=1
Într-adevăr, fie
Y = X1 + X2 + . . . + Xk
Variabile aleatoare discrete 61
atunci
Xk Xk
2 2 22
D [Y ] = M [Y ] − (M [Y ]) = M [( Xi ) ] − (M [ Xi ])2 =
i=1 i=1
Observaţia 2.2.11 Proprietatea rămâne adevărată ı̂n condiţii mai puţin restrictive. În
cursul demonstraţiei s-a folosit faptul că variabilele aleatoare Xi , i = 1, k sunt indepen-
dente două câte două şi nu ı̂n totalitatea lor.
Xk k
X
2
D [ ai Xi ] = a2 D2 [Xi ]
i=1 i=1
În particular,
D2 [X − Y ] = D2 [X] + D2 [Y ].
De obicei, gradul de ı̂mprăştiere a valorilor unei variabile aleatoare X se exprimă nu prin
dispersie, ci prin abaterea medie pătratică, notată D[X] şi definită prin relaţia
p
σ = D[X] = D2 [X].
Aceasta are avantajul că se exprimă prin aceleaşi unităţi de măsură ca şi valorile variabilei
aleatoare X.
2. D[a + X] = D[X].
3. D[aX] =| a | D[X].
Proprietăţile de mai sus rezultă din proprietăţile dispersiei.
Teorema 2.2.1 (Inegalitatea lui Cebâşev). Fie X o variabilă aleatoare care admite medie
şi dispersie finite. Atunci, oricare ar fi > 0, are loc inegalitatea
D2 [X]
P ({| X − m |< }) > 1 − , m = M [X]. (2.5)
2
62 Variabile aleatoare discrete
Demonstraţie. Facem observaţia că această inegalitate dă o margine inferioară pentru
probabilitatea ca abaterea absolută a unei variabile aleatoare cu dispersia cunoscută să
fie mai mică decât un număr dat.
Pentru demonstraţie considerăm repartiţia variabilei aleatoare X,
x1 x 2 . . . x n
X: ,
p1 p2 . . . p n
ı̂n care presupunem că am scris valorile ı̂n ordine crescătoare, şi deci aşa vor fi scrise şi
valorile | xi − m |, i = 1, n, adică
Dacă luăm un > 0 oarecare, unele din valorile |xi − m|, i = 1, n, vor fi mai mari sau
egale cu , altele mai mici. Există deci un l astfel ı̂ncât
(x1 − m)2 6 (x2 − m)2 6 . . . 6 (xl − m)2 < 2 6 (xl+1 − m)2 6 . . . 6 (xn − m)2 .
şi ia valoarea |xi −m| atunci când X ia valoarea xi . Inegalitatea |X −m| < este verificată
atunci când |X − m| ia una din valorile |x1 − m|, |x2 − m|, . . . , |xl − m| adică atunci şi
numai atunci când X ia una din valorile x1 , x2 , . . . , xl . Putem scrie deci evenimentul
(|X − m| < ) ca o reuniune finită de evenimente incompatibile
{|X − m| < } = {X = x1 } ∪ {X = x2 } ∪ . . . ∪ {X = xl }.
de unde
l
X n
X
P ({|X − m| < }) = pi = 1 − pi .
i=1 i=l+1
Vom transforma această egalitate ı̂n inegalitate prin micşorarea membrului drept.
Această minorare o realizăm astfel: valorile (xi − m)2 care sunt mai mici ca 2 le ı̂nlocuim
cu 0, iar cele care sunt mai mari sau egale cu 2 le ı̂nlocuim cu 2 . Atunci
n
X
σ 2 > 0p1 + . . . + 0pl + 2 pl+1 + . . . + 2 pn = 2 pi
i=l+1
Variabile aleatoare discrete 63
şi deci
Xn
σ2
> pi ,
2 i=l+1
Xn
σ2
1− 2 61− pi = P ({|X − m|} < ),
i=l+1
D2 [X]
P ({|X − m| < 0, 2}) > 1 − .
0, 22
M [Xi ] = pi .
Cu notaţiile introduse, putem scrie
n
X
X = X1 + X2 + . . . + Xn = Xi ,
i=1
Xn n
X n
X
M [X] = M [ Xi ] = M [Xi ] = pi ,
i=1 i=1 i=1
Xn n
X
2 2
D [X] = D [ Xi ] = D2 [Xi ],
i=1 i=1
Deoarece
0 1
Xi2 : ,
qi pi
avem
M [Xi2 ] = pi ,
deci n
X
2
D [Xi ] = pi − p2i = pi qi şi D [X] = 2
p i qi .
i=1
2. Repartiţia Bernoulli.
Este de fapt repartiţia Poisson ı̂n care structurile urnelor Ui , i = 1, n, sunt identice,
adică p1 = p2 = . . . = pn = p, q1 = q2 = . . . = qn = q. Variabila aleatoare corespunzătoare
este
0 1 2 ... k ... n
X: .
Cn0 p0 q n Cn1 p1 q n−1 Cn2 p2 q n−2 . . . Cnk pk q n−k . . . Cnn pn q 0
Scriem, ı̂n acest caz, X : Bi(n, p). Particularizând schema lui Poisson, obţinem
Variabila aleatoare binomială apare ı̂n aplicaţii ı̂n care sunt două tipuri de situţii:
realizări/nerealizări, bit corect/eronat, aparat bun/defect etc.
3. Repartiţia hipergeometrică.
Fie X variabila aleatoare care ia ca valori numărul de bile albe care se obţin extrăgând
n bile dintr-o urnă care conţine a bile albe şi b bile negre (n 6 a+b). Tabloul de repartiţie
al variabilei aleatoare X este
0 1 2 ... k ... min{n, a}
min{n,a} n−min{n,a}
X : Ca0 Cbn Ca1 Cbn−1 Ca2 Cbn−2 Cak Cbn−k Ca Cb .
n n n
... n
... n
Ca+b Ca+b Ca+b Ca+b Ca+b
D2 [X] = M [X 2 ] − (M [X])2 .
an(an − n + b) a2 n2 abn(a + b − n)
D2 [X] = − 2
= .
(a + b)(a + b − 1) (a + b) (a + b)2 (a + b − 1)
şi ı̂n cazul schemei bilei neı̂ntoarse, variabila aleatoare hipergeometrică poate fi scrisă sub
forma unei sume de variabile aleatoare. Să notăm cu X1 numărul de bile albe obţinute la
prima extragere, cu X2 numărul de bile albe obţinute la a doua extragere etc. Tabloul de
repartiţie al variabilei X1 este
0 1
X1 : .
q p
66 Variabile aleatoare discrete
Vom arăta că şi celelalte variabile aleatoare Xi , i = 2, n, au aceeaşi repartiţie. Pentru
aceasta calculăm probabilitatea obţinerii unei bile albe la extracţia de ordin k, atunci
când se fac extrageri fără ı̂ntoarcerea bilei. Numărul cazurilor posibile Aka+b . Numărul
cazurilor favorabile coincide cu numărul de moduri ı̂n care pot fi luate k bile astfel ı̂ncât
pe locul k să fie o bilă albă. O bilă albă poate fi luată ı̂n a moduri.
Celelalte k−1 locuri pot fi ocupate ı̂n Ak−1 k−1
a+b−1 moduri, ı̂n total aAa+b−1 cazuri favorabile.
Probabilitatea cătată va fi deci
aAk−1
a+b−1 a(a + b − 1)(a + b − 2) . . . (a + b − k + 1) a
k
= = = p.
Aa+b (a + b)(a + b − 1) . . . (a + b − k + 1) a+b
b(b − 1) . . . (b − n + k − 1) n!
· · =
(n − k)! (a + b) . . . (a + b − n + 1)
n! a(a − 1) . . . (a − k + 1)b(b − 1) . . . (b − n + k − 1)
= =
k!(n − k)! (a + b) . . . (a + b − n + 1)
a a−1 a−k+1 b b−1 b−n+k−1
= Cnk ... ... ·
a+ba+b a+b a+ba+b a+b
(a + b)n 1 k−1
· = Cnk p(p − ) . . . (p − )·
(a + b) . . . (a + b − n + 1) a+b a+b
1 n−k+1 (a + b)n
·q(q − ) . . . (q − ) .
a+b a+b (a + b) . . . (a + b − n + 1)
Trecând la limită obţinem (2.6).
Exemplul 2.3.1 Să se arate că dacă X, Y sunt două variabile aleatoare independente,
X : Bi(n, p), Y : Bi(m, p) atunci X + Y : Bi(n + m, p).
k
X k
X
P ({X + Y = k}) = P ({X = l, Y = k − l}) = Cnl pl q n−l Cm
k−l k−l m−k+l
p q =
l=0 l=0
k
X
=( Cnl Cm
k−l k n+m−k
)p q k
= Cm+n pk q n+m−k .
l=0
Variabilele aleatoare :
xi yj
X: , i = 1, m, Y : , j = 1, n,
pi. p.j
unde
pij = P ({e ∈ E | X(e) = xi , Y (e) = yj }).
Am notat
n
X m
X
pik = pi. , i = 1, m, pkj = p.j , j = 1, n,
k=1 k=1
cantităţi care se numesc probabilităţi marginale. Ca şi ı̂n cazul variabilelor aleatoare
unidimensionale, rezultă că
n
X
P ({X = xi }) = pij = pi. ,
j=1
m
X
P ({Y = yj }) = pij = p.j .
i=1
= E|{X = xi }
rezultă că
n
X
P ({yj |xi ) = 1}.
j=1
La fel
m
X
P ({xi |yj ) = 1}.
i=1
Observaţie. Putem ataşa vectorului aleator (X, Y ) tabloul de repartiţie dat de legile de
probabilitate condiţionată :
!
x1 x2 . . . xi . . . xm
X|{Y = yj } : p1j p2j pij pmj ,
... ...
p.j p.j p.j p.j
şi respectiv
!
y1 y2 . . . yi . . . ym
Y |{X = xi } : pi1 pi2 pij pin .
... ...
pi. pi. pi. pi.
Deci avem n legi condiţionate ale variabilei aleatoare X corespunzătoare celor n valori
ale variabilei aleatoare Y şi respectiv m legi de probabilitate ale variabilei aleatoare Y
condiţionate de cele m valori ale lui X.
Exemplul 2.4.1 Numărul biţilor, N , dintr-un mesaj transmişi corect este o variabilă
aleatoare care urmează o repartiţie geometrică cu parametrul p. Presupunem că mesa-
jul este ı̂mpărţit ı̂n pachete de maximum M biţi lungime. Fie Q numărul pachetelor
complete formate cu biţii unui mesaj şi R numărul biţilor rămaşi ı̂n ultimul pachet care
poate fi incomplet. Să se calculeze probabilitatea ca mesajul transmis să conţină q pachete
complete, iar ultimul pachet să conţină r biţi. Notăm cu Y variabila aleatoare care ia ca
valori numărul de pachete complete dintr-un mesaj şi cu Z variabila aleatoare care ia ca
valori numărul R de biţi incompleţi din ultimul pachet.
70 Variabile aleatoare discrete
Dacă mesajul are N biţi, atunci numărul pachetelor complete din mesaj este câtul
Q a ı̂mpărţirii lui N la M , iar restul este numărul R al biţilor din ultimul pachet, N =
M Q + R. Variabila aleatoare Y ia valorile 0, 1, 2, . . . iar variabila aleatoare Z ia valorile
0, 1, 2, . . . , M −1. Asociat acestui eveniment considerăm variabila aleatoare bidimensionaă
(Y, Z). Probabilitatea ca mesajul corect să conţină q pachete complete şi ultimul pachet
să conţină r biţi este dată de
1−p r
P ({Y = q})P ({Z = r}) = (1 − pM )(pM )q p =
1 − pM
1−p r
= p = P ({Y = q})P ({Z = r}), ∀q = 0, 1, . . . , r = 0, 1, . . . , M − 1.
1 − pM
Ai = {e ∈ E, X(e) = xi }.
Variabile aleatoare discrete 71
Operaţiile cu variabile cu un număr infinit numărabil de valori se definesc ca şi ı̂n cazul
variabilelor aleatoare discrete simple. La fel se pune problema şi ı̂n cazul independenţei
variabilelor aleatoare cu un număr infinit numărabil de valori.
72 Variabile aleatoare discrete
Repartiţia Poisson.
Spunem că variabila aleatoare X este repartizată Poisson cu paramatru λ, λ ∈ IR+ ,
dacă tabloul său de repartiţie este
0 1 2 ... k ...
X: 2 k .
e−λ 1!λ e−λ λ2! e−λ . . . λk! e−λ . . .
Folosim notaţia
λk −λ
P (k; λ) = e .
k!
Evident P (k; λ) > 0 şi
∞
X ∞
X
λk −λ −λ λk
e =e = e−λ eλ = 1.
k=0
k! k=0
k!
În Figura 2.4 desenăm densitatea de probabilitate generalizată pentru valorea lui λ = 9.
Proprietăţi ale repartiţiei Poisson.
P1. Media repartiţiei Poisson este aceeaşi cu dispersia repartiţiei şi egală cu λ.
Într-adevăr,
X∞ X∞
λk −λ λk−1 −λ
M [X] = k e =λ k e = λ.
k=0
k! k=1
(k − 1)!
Pentru calculul dispersiei folosim formula D2 [x] = M [x2 ] − (M [X])2 .
∞
X ∞
X ∞
2
k
2 λ −λ λk −λ X 2 λk −λ
2
M [X ] = k e = (k − k) e + k e =
k=1
k! k=2
k! k=1
k!
∞
X
2 λk−2 −λ
=λ k2 e + λ = λ2 + λ
k=2
(k − 2)!
D [X] = λ2 + λ − λ = λ.
2
P4. Deoarece repartiţia Poisson se ı̂ntâlneşte ı̂n cazul evenimentelor care se ı̂ntı̂mplă
rar (n mare, np = constant, rezultă p mic), ea mai poartă denumirea de legea
evenimentelor rare.
atunci
λk −λ
lim Cnk pk q n−k = e ,
n→∞ k!
unde np = λ = const.
Demonstraţie.
n(n − 1) . . . (n − k + 1) λ k λ
lim Cnk pk q n−k = lim ( ) (1 − )n−k =
n→∞ n→∞ k! n n
74 Variabile aleatoare discrete
λk n(n − 1) . . . (n − k + 1) λ n−k λk −λ
= lim (1 − ) = e .
k! n→∞ nk n k!
Pentru calculul probabilităţilor P (k, λ) s-au ı̂ntocmit tabele pentru λ cuprins ı̂ntre
0, 1, . . . , 20. Aceste tabele dau probabilităţile ca evenimentele să se realizeze de cel puţin
m ori. ∞
X λk −λ
P ({X > m}) = e .
k=m
k!
Teorema 2.5.1 ne permite să aproximăm probabilităţile unei repartiţii binomiale.
Exemplul 2.5.1 Probabilitatea de eroare la transmiterea unui bit printr-o linie de comunicaţie
este de 10−3 . Să se calculeze probabilitatea ca la transmiterea unui bloc de 1000 de biti
să avem cinci sau mai mult de cinci erori.
Transmiterea fiecărui bit reprezintă o experienţă Bernoulli care se realizează dacă s-a
produs o eroare la transmiterea bitului. Probabilitatea ca să se producă k erori ı̂n 1000
de transmisii este dată de probabilitatea calculată cu legea binomială cu n = 1000 şi
p = 10−3 . Legea Poisson cu parametrul λ = np = 1000 · 10−3 = 1 aproximează legea
binomială. Astfel
4
X λk n 1 1 1 1o
P [N > 5] = 1 − P [N < 5] = 1 − e−α = 1 − e−1 1 + + + + = 0, 00366
k=0
k! 1! 2! 3! 4!
Exemplul 2.5.2 O fabrică produce becuri şi dă 2 % rebut. Să se aproximeze probabili-
tatea ca ı̂ntr-o cutie de 100 de becuri să obţinem cel mult trei becuri defecte?
Presupunând indepependenţa, avem de-a face cu o variabilă aleatoare repatizată bino-
mial cu p = 0, 02 şi n = 100. Dacă dorim să calculăm probabilitatea cu ajutorul schemei
binomiale, după calcule laborioase obţinem
3
X
k
C100 (0, 2)k (0, 98)100−k = 0, 859.
k=0
Exemplul 2.5.3 Un generator de particule emite particule ı̂n unitatea de timp. Care
este probabilitatea ca ı̂n intervalul t să apară k impulsuri ?
t
Pentru n suficient de mare ı̂mpărţim [0, t] ı̂n intervale de lungime , ı̂ncât ı̂n fiecare
n
interval să existe cel mult un impuls. Probabilitatea ca ı̂ntr-un interval de timp de lungime
t t wt
să fie ı̂nregistrat un impuls este ≈ w = p (se observă că −→ 0, pentru n → ∞,
n n n
Variabile aleatoare discrete 75
ceea ce justifică ı̂ncă o dată denumirea de eveniment rar). Probabilitatea ca ı̂n intervalul
[0, t] să fie ı̂nregistrate k impulsuri este dată de schema lui Bernoulli
Repartiţia geometrică.
Spre deosebire de variabila aleatoare binomială care apare când fixăm un număr de
repetări ale unei experienţe care poate consta ı̂n realizarea sau nerealizarea evenimentului
A şi numărăm numărul de realizări ale acestuia, ı̂n cazul variabilei geometrice numărăm
numărul m de efectuări ale experienţei (experienţe de tip Bernoulli, adică independente
şi repetate ı̂n aceleaşi condiţii) până la prima realizare a evenimentului A. În acest caz
variabila aleatoare X ia valorile X = k, k = 1, 2, . . . , m, . . . şi avem
unde q = 1 − p.
Uneori ne interesează M 0 = M − 1, numărul de repetări ale experienţei până la reuşita
ei:
P [M 0 = k] = P [M = k + 1] = (1 − p)k p, k = 0, 1, 2, . . .
Variabila aleatoare X va lua valoarea 1 dacă evenimentul se realizează ı̂n cadrul primei
experienţe şi deci P ({X = 1}) = p; X va lua valoarea 2 dacă evenimentul A nu s-a realizat
la prima experienţă, dar se realizează la a doua experienţă, P ({X = 2}) = P (Ā ∩ A) =
P (Ā)P (A) = (1−p)p = qp. Analog, P ({X = 3}) = P (Ā∩ Ā∩A) = P (Ā)P (Ā)P (A) = q 2 p
etc. Avem, evident
∞
X ∞
X 1
P ({X = k}) = pq k−1 = p = 1.
k=1 k=1
1−q
d q p 1
=p [ ]= = ,
dq 1 − q (1 − q)2 p
ţinând seama de proprietăţile seriilor de puteri pentru |q| < 1.
D2 [X] = M [X 2 ] − (M [X])2 ,
76 Variabile aleatoare discrete
∞
X ∞
X ∞
2 2 k−1 2 k−1 d X k
M [X ] = k pq =p k q =p kq =
k=1 k=1
dq k=1
d q 2−p 2−p
=p [ ] = p = ,
dq (1 − q)2 p3 p2
şi deci
2−p 1 q
D2 [X] = 2
− 2 = 2.
p p p
În Figura 2.5 a) şi b) desenăm densitatea de probabilitate generalizată pentru diferite
valori ale lui p.
Exemplul 2.5.5 Fie N numărul de apeluri pe care le face un calculator spre un terminal
până când terminalul are un mesaj gata de a fi transmis. Dacă presupunem că terminalul
produce mesaje care formează un şir de experienţe care urmează legea binomială, atunci
N are o repartiţie geometrică. Aflaţi media variabilei aleatoare care ia ca valori numărul
de apeluri. Presupunem p = 0, 4.
∞
X 1
M [X = N ] = kpq k−1 = = 2, 5
k=1
p
Aceasta nu este o valoare pe care o poate lua N . Afirmaţia ”N este egală cu 2.5 ı̂n medie”
nu are sens. Sensul afirmaţiei este că media aritmetică a unui număr mare de experienţe
va fi aproape de 2.5.
Observăm că definirea acestei variabile aleatoare este corectă deoarece P ({X = k}) >
∞
X
m−1 m k−m
0 şi Ck−1 p q = 1.
k=m
∞
X
−m m−1 k−m
Pentru a calcula media ţinem seama că (1 − x) = Ck−1 x şi deci
k=m
∞
X
xm
= C m−1 xk dacă |x| < 1, (2.9)
(1 − x)m k=m k−1
∞
X
m−1 k−1 d xm mxm−1
Ck−1 x = ( ) = dacă |x| < 1,
k=m
dx (1 − x)m (1 − x)m+1
adică
∞
X ∞
X
m−1 m k−m m −m+1 m−1 k−1 mq m−1 m
M [X] = kCk−1 p q =p q kCk−1 q = pm q −m+1 m+1
= ,
k=m k=m
p p
m
M [X] = .
p
Pentru calculul dispersiei folosim
∞
X ∞
X
2 2 m−1 m k−m m −m+1
M [X ] = k Ck−1 p q =p q k 2 q k−1 .
k=m k=m
deci
m(m + q)
M [X 2 ] = ,
p2
iar
mq
D2 [X] = .
p2
78 Variabile aleatoare discrete
∞
X
GX (z) = pk z k , (2.10)
k=0
∞
X ∞
X
(j) (n−k)
GX (z) = n(n − 1) . . . (n − j + 1)pj z = Cnj j!pj z (n−k) .
k=j k=j
(j) 1 (j)
GX (0) = j!pj sau pj = G (0).
j! X
Aceasta ne arată că putem determina toate probabilităţile pk cu ajutorul funcţiei genera-
(j)
toare. Din acestă cauză GX se numeşte funcţie generatoare. În particular, punând z = 1
ı̂n G0X şi ı̂n G00X obţinem:
M [X] = λ
D2 [X] = λ2 + λ − λ2 = λ.
Variabile aleatoare discrete 79
P ({X > k + j|X > j}) = P ({X > k}), ∀j, k > 0
X \Y −1 0 1 X \Y −1 0 1
-1 1/9 1/9 1/9 -1 0 0 1/3
0 1/9 1/9 1/9 0 0 1/3 0
1 1/9 1/9 1/9 1 1/3 0 0
Defectele care apar ı̂n fiecare moment pot fi considerate ca experienţe Bernoulli care se
realizează cu succes dacă defectul este ı̂n regiunea R. Dacă numărul total de defecte este
X = k, atunci numărul de defecte care apar ı̂n regiunea R urmează o repartiţie Bernoulli
de parametrii k şi p:
Atunci ∞
X k! λk
P ({Y = j}) = pj (1 − p)k−j e−λ =
k=j
j!(k − j)! k!
∞
(λp)j e−λ X ((1 − p)λ)k−j (λp)j e−λ (1−p)λ (λp)j −λp
= = e = e .
j! k=j
(k − j)! j! j!
Din (i) avem {X < x + 1/n} ∈ K şi din faptul că familia K este ı̂nchisă la intersecţii
numărabile, rezultă că {X 6 x} ∈ K.
Pentru implicaţia (ii) ⇒ (i), observăm că
∞
[
{X < x} = {X 6 x − 1/n},
n=1
83
84 Variabile aleatoare continue
Exemplul 3.1.1 Dacă E = IR, iar K este cel mai mic corp borelian ce conţine toate
intervalele (a, b), ∀a, b ∈ IR, elementele lui K se numesc mulţimi boreliene. Orice funcţie
f : IR → IR continuă este o variabilă aleatoare, deoarece contraimaginea unei mulţimi
deschise este o mulţime deschisă. Se poate demonstra că acest rezultat se păstrează şi ı̂n
cazul mulţimilor boreliene (contraimaginea unei mulţimi boreliene este boreliană).
Următoarele propoziţii ne arată că operaţiile uzuale cu funcţii, aplicate variabilelor alea-
toare, au ca rezultat tot variabile aleatoare.
Propoziţia 3.1.1 Fie X o variabilă aleatoare şi c ∈ IR, atunci următoarele funcţii:
1. X + c;
2. cX;
3. |X|;
4. X 2 ;
5. 1/X;
Demonstraţie. Vom transforma convenabil relaţia (3.1) ı̂n fiecare caz şi vom folosi faptul
că X este variabilă aleatoare.
1.{X + c < x} = {X < x − c} ∈ K, ∀x ∈ IR.
{X > x/c}, dacă c < 0
2.{cX < x} = ∈ K.
{X < x/c}, dacă c > 0
Dacă c = 0, afirmaţia este imediată.
3.{|X| < x} = {X < x} √ ∩ {X > −x} ∈ K.
2
4.{X < x} = {|X| < x} ∈ K, ∀x > 0.
1 {X < 0} ∩ {X > 1/x}, dacă x < 0
5.{ < x} = {X < 0}, dacă x = 0 ∈ K.
X
{X < 0} ∪ {X > 1/x}, dacă x > 0
1. X − Y ;
2. X + Y ;
3. XY ;
4. X/Y ;
5. max(X, Y );
Variabile aleatoare continue 85
6. min(X, Y );
sunt variabile aleatoare.
Demonstraţie. Toate afirmaţiile 2-6, decurg din prima. Să demonstrăm 1. Folosind
numărabilitatea mulţimii Q şi faptul că ı̂ntre două numere reale există cel puţin un număr
raţional putem scrie:
∞
!
[
{X − Y < x} = {X < Y + x} = ({X < rn } ∩ {rn − x < Y }) ∈ K,
n=1
unde rn ∈ Q.
Pentru 2, observăm că X + Y = X − (−Y ), iar pentru XY , afirmaţia rezultă din
1
identitatea XY = [(X + Y )2 − (X − Y )2 ].
4
4 este o consecinţă a afirmaţiei precedente şi a Propoziţiei 3.1.1.
Ultimele două afirmaţii rezultă din egalităţile:
1
max(X, Y ) = (X + Y + |X − Y |),
2
1
min(X, Y ) = (X + Y − |X − Y |).
2
Deoarece fj este o funcţie continuă, contraimaginea unei mulţimi boreliene este de aseme-
nea boreliană, iar afirmaţia rezultă din faptul că Xj este variabilă aleatoare.
Dacă se particularizează definiţia ı̂n cazul unei variabile aleatoare discrete, se obţine
funcţia ı̂n scară dată ı̂n Capitolul 2.2.
3. lim F (x) = 0;
x→−∞
4. lim F (x) = 1;
x→+∞
Demonstraţie.
1. Observăm că {X < x2 } = {X < x1 } ∪ {x1 6 X < x2 }, iar cele două evenimente
sunt incompatibile. Aplicând probabilitatea peste ultima relaţie, găsim
deci seria precedentă este convergentă şi are ca sumă limita şirului de sume parţiale.
4. Se constată că
∞
[
{X 6 ∞} = {X < x1 } ∪ ( {xn 6 X < xn+1 }),
n=1
unde xn este un şir crescător la +∞. Procedând ca mai sus, găsim 1 = lim F (xn ).
n→∞
P0 : D → [0, 1],
[ X
P0 ( (ai , bi )) = (bi − ai ), ∀ai , bi ∈ (0, 1).
i∈I i∈I
Se observă că dacă I are un singur element, condiţia de mai sus devine:
formulă care dă lungimea intervalului (a, b); deci măsura Lebesgue a unei reuniuni nu-
mărabile de intervale disjuncte este suma lungimilor lor. Seria din membrul al doilea are
şirul sumelor parţiale sn mărginit. Într-adevăr, ordonând intervalele din şirul sumelor
parţiale, putem presupune 0 6 a1 < a2 < . . . an şi bn 6 1. Atunci
n
X n
X n−1
X
sn = (bi − ai ) 6 (bi − ai ) + (ai+1 − bi ) = bn − a1 6 1 − 0 = 1.
i=1 i=1 i=1
Fie K cel mai mic corp borelian (se poate arăta că există), care conţine D, pe care ı̂l
notăm K; aplicaţia P0 poate fi prelungită la o probabilitate pe K, astfel ı̂ncât să aibă loc
∀D ∈ D, P (D) = P0 (D).
88 Variabile aleatoare continue
q-cvantilele sunt unic determinate dacă F este continuă şi strict crescătoare ca soluţii ale
ecuaţiei
i
F (ci ) = , i = 1 . . . q − 1.
q
Pentru q = 2 se obţine mediana, pe care o vom nota me şi care se caracterizează prin
1 1
F (me ) 6 , F (me + 0) > , (3.4)
2 2
iar ı̂n cazul continuităţii lui F ,
1
F (me ) = .
2
Pentru q = 4 se obţin cvartilele, pentru q = 10,decilele etc.
F (+∞|A) = 1; F (−∞|A) = 0.
Deci obţinem
F (x)
, dacă x 6 a
F (x|{X < a}) = F (a) (3.6)
1, dacă x > a.
În Figura 3.1 sunt ilustrate cele două funcţii.
2. Fie A = {a 6 X < b} astfel ca P (A) = F (b) − F (a) 6= 0. Deducem imediat că
0, dacă x 6 a,
F (x) − F (a)
F (x|{a 6 X < b}) = , dacă a < x 6 b, (3.7)
F (b) − F (a)
1, dacă x > b.
Demonstrăm următoarea formulă, care se dovedeşte utilă ı̂n aplicaţii. În ipotezele prece-
dente are loc
F 0 (x) = f (x).
Acest lucru rezultă imediat dacă se aplică teorema de medie ı̂n integrala Riemann şi
continuitatea lui f . Într-adevăr,
R x+∆x
F (x + ∆x) − F (x) f (t)dt
lim = lim x = f (x).
∆x→0 ∆x ∆x→0 ∆x
Variabile aleatoare continue 91
Dacă ı̂n relaţia (3.9) trecem la limită pentru x tinzând la ∞ şi folosim faptul că lim F (x) = 1,
x→∞
deducem Z +∞
f (t)dt = 1. (3.10)
−∞
satisface condiţiile propoziţiei (3.1.4), deci este o funcţie de repartiţie, dacă ţinem cont
de observaţia făcută după această propoziţie.
Se constată imediat că este ı̂ndeplinită condiţia (3.10). Funcţia de repartiţie este dată de
Z
x 0,
x−a
dacă x 6 a,
F (x) = f (t)dt = , dacă a < x 6 b,
−∞
b−a
1, dacă x > b.
Graficele celor două funcţii sunt reprezentate ı̂n figurile 3.2 şi 3.3.
Exemplul 3.2.1 Dacă efectuăm măsurători de precizie, iar rezultatul este cuprins ı̂ntre
k şi k + 1 unităţi, convenind să-l aproximăm cu k + 1/2, comitem o eroare care poate fi
presupusă uniform repartizată pe intervalul (−1/2, 1/2), deci are densitatea
1, dacă x ∈ [−1/2, 1/2],
f (x) =
0, ı̂n rest.
92 Variabile aleatoare continue
1 (x−m)2
f (x) = √ e − 2σ 2 , ∀x ∈ IR. (3.11)
2πσ
Observăm că f (x) > 0. Pentru calculul integralei din condiţia (3.10) facem schimbarea
x−m
de variabilă y = şi obţinem
σ
Z ∞ Z ∞ (x−m)2
Z ∞ y2
1 − 1
f (x)dx = √ e 2σ 2
dx = √ e− 2 dy = 1.
−∞ 2πσ −∞ 2π −∞
Pentru calculul ultimei integrale vezi Anexa 3.
Dacă m = 0 şi σ = 1, repartiţia se mai numeşte normată şi are densitatea
1 − x2
f (x) = √ e 2. (3.12)
2π
Graficul este cunoscut sub numele de ”clopotul lui Gauss”. Se constată că acesta este
1
simetric faţă de dreapta x = m, pentru x = m funcţia f are maxim egal cu f (m) = √2πσ ,
iar punctele m ± σ sunt puncte de inflexiune. Pentru σ constant şi m variabil, graficul se
translează corespunzător. Dacă m este constant, iar σ variabil se constată că punctul de
maxim variază invers proporţional ı̂n raport cu σ. În Figura 3.4 se poate constata cum
variază densitatea ı̂n funcţie de σ. Funcţia de repartiţie F are graficul dat de Figura 3.5
şi se poate determina numeric, dacă se cunosc valorile funcţiei lui Laplace , care se
defineşte prin Z z
1 x2
Φ(z) = √ e− 2 dx, ∀z ∈ IR.
2π 0
Se verifică uşor că Φ(−z) = −Φ(z) , ceea ce permite tabelarea funcţiei doar pentru valori
pozitive. Mai observăm că are loc relaţia
Z z
1 x2 1
lim √ e− 2 dx = . (3.13)
z→∞ 2π 0 2
Să exprimăm funcţia de repartiţie cu ajutorul funcţiei lui Laplace. În integrala F (x) =
Rx t−m
−∞
f (t)dt facem schimbarea de variabilă = u şi obţinem
σ
Z x−m
1 σ u 2
F (x) = √ e− 2 σdu =
2πσ −∞
Z 0 Z x−m
1 u 2
u2 1 x−m
e− 2 du +
σ
=√ ( e− 2 du) = + Φ( ).
2π −∞ 0 2 σ
În ultima egalitate s-a folosit relaţia (3.13). Se obţine astfel formula
1 x−m
F (x) = + Φ( ). (3.14)
2 σ
Variabile aleatoare continue 93
Din (3.14), folosind faptul că P ({a 6 X < b}) = F (b) − F (a), deducem
b−m a−m
P ({a 6 X < b}) = Φ( ) − Φ( ).
σ σ
Probabilitatea ca abaterea faţă de m, notată |X − m| să nu depăşească > 0, este dată
de
P ({|X − m| < }) = 2Φ( ).
σ
Regula celor 3σ. O variabilă normal repartizată X : N (m, σ 2 ) ia valori semnificative ı̂n
intervalul (m − 3σ, m + 3σ). Într-adevăr, P ({|X − m| > 3σ}) = 1 − P ({|X − m| < 3σ}) =
1 − 2Φ(3) = 0, 0027, valoare care ı̂n unele situaţii poate fi neglijată.
Exemplul 3.2.2 Durata de funcţionare a unei baterii este o variabilă aleatoare, no-
tată X, repartizată normal N (m, σ 2 ), unde m = 120 zile reprezintă timpul mediu de
funcţionare, iar σ = 10 zile reprezintă abaterea faţă de medie (aceste noţiuni vor fi intro-
duse şi studiate şi ı̂n cazul continuu ı̂n Capitolul 3.4). Determinaţi
a. probabilitatea ca bateria să funcţioneze cel puţin 100 de zile;
b. probabilitatea ca bateria să funcţioneze ı̂ntre 100 şi 150 de zile;
c. intervalul de timp ı̂n care se poate presupune că bateria funcţionează aproape sigur.
a. P ({X > 100}) = 1 − P ({X < 100}) = 1 − F (100) = 1 − ( 12 + Φ( 100−120 10
)) =
1
2
+ Φ(2) = 0, 97725;
b. P ({100 6 X 6 150}) = Φ( 150−120 10
) − Φ( 100−120
10
) = Φ(3) + Φ(2) = 0, 9759;
c. Aplicı̂nd regula celor 3σ, găsim intervalul căutat de forma |X − m| < 3σ, deci
bateria funcţionează aproape sigur ı̂ntre 90 şi 150 zile.
Exemplul 3.2.3 Repartiţia erorilor accidentale de măsurare. Alte tipuri de erori decât cele
datorate aproximărilor (ı̂n cazul măsurătorilor de precizie) sunt cele accidentale. Notăm cu
X eroarea comisă la efectuarea unei măsurători, care este o variabilă aleatoare. Dacă val-
oarea exactă a mărimii este r, prin efectuarea a n măsurători obţinem valorile r1 , r2 , . . . , rn
aproximative şi erorilor ek = r − rk , k = 1, . . . n. Să determinăm o funcţie derivabilă, f ,
care să fie densitatea de probabilitate a variabilei X. Probabilitatea ca eroarea să fie
cuprinsă ı̂n intervalul [ek , ek + hk ], k = 1, . . . , n, cu hk suficient de mic poate fi aproximată
cu f (ek )hk , iar ı̂n cele n măsurători independente este produsul
Legea numerelor mari (care va fi studiată amănunţit ı̂n Capitolul 4) ne permite să luăm
ca valoare cea mai probabilă media aritmetică, notată
1
r̄ = (r1 + . . . rn ).
n
Deci r̄ este un punct de maxim pentru p(r). Notăm cu g(r) = f (r − r1 ) . . . f (r − rn ). Din
condiţia p0 (r̄) = 0, rezultă g 0 (r̄) = 0. Are loc
n
X
f (r − r1 ) . . . f (r − ri−1 )f 0 (r − ri )f (r − ri+1 ) . . . f (r − rn )
g 0 (r) i=1
= =
g(r) f (r − r1 ) . . . f (r − rn )
94 Variabile aleatoare continue
n
X f 0 (r − ri )
= .
i=1
f (r − ri )
n
X
Din definiţia mediei, rezultă (r̄ − r1 ) + . . . + (r̄ − rn ) = 0, deci (r̄ − rk ) = 0. Putem
k=1
atunci scrie
n n n 0
g 0 (r) X f 0 (r − rk ) X X f (r − rk )
0= = −c (r − rk ) = − c(r − rk ) .
g(r) k=1
f (r − rk ) k=1 k=1
f (r − rk )
Punem condiţia ca termenul general al sumei să se anuleze. Aceasta conduce la ecuaţia
diferenţială
f 0 (x)
= cx
f (x)
x2
c
cu soluţia f (x) = ke 2 . Să determinăm constantele k şi c, astfel ca f (x) să fie o densitate
1
de probabilitate. Punând condiţia (3.10), găsim c < 0, k > 0. Dacă notăm σ 2 = − ,
c
1
găsim k = √ σ şi
2π
1 − x2
f (x) = √ e 2σ 2
.
2πσ
Deci erorile accidentale de măsurare se repartizează după legea N (0, σ 2 ). Constanta
1
h = √2πσ se numeşte precizia măsurătorii.
Deducem s
β 2 − α2
σ= .
2(ln β − ln |α|)
În practică apar des situaţii ı̂n care o variabilă aleatoare continuă este suma dintre
o variabilă aleatoare discretă şi o variabilă aleatoare continuă. Ca aplicaţie a formulei
probabilităţii totale se poate deduce densitatea de probabilitate.
Variabile aleatoare continue 95
Exemplul 3.2.7 Fie X : N (m, σ 2 ). Să determinăm f (x|{|X − m| 6 kσ}). Observăm că
P ({|X − m| 6 kσ}) = 2Φ(k) şi ı̂nlocuim ı̂n (3.16). Deci
(x − m)2
1 −
√ e 2σ 2 , dacă |x − m| 6 kσ
f (x|{|X − m| 6 kσ}) = 2πσ2Φ(k) .
0, ı̂n rest
Exemplul 3.2.8 Fie T variabila aleatoare care dă timpul de funcţionare până la prima
defectare. Să determinăm F (x|{T > t}) şi f (x|{T > t}). Observăm că P ({T > t}) =
1 − F (t), probabilitate care va fi definită ca funcţie de fiabilitate ı̂n Capitolul 3.7. Găsim
F (x) − F (t)
, dacă x > t,
1 − F (t)
F (x|{T > t}) =
0, dacă x < t.
f (x) f (x)
f (x|{T > t}) = =Z +∞ , x > t.
1 − F (t)
f (x)dx
t
Exemplul 3.2.9 Densitatea de probabilitate a defectării unei valve radio ı̂n momentul
deschiderii este q(v). Voltajul V este aleator şi are repartiţie N (m, σ 2 ). Să găsim pro-
babilitatea evenimentului A, care semnifică faptul că la momentul deschiderii valva s-a
defectat. Vom folosi formula (3.17)
Z +∞ Z +∞
1 (v−m)2
P (A) = q(v)f (v)dv = √ q(v)e− 2σ2 dv.
−∞ 2πσ −∞
Fără a intra ı̂n detalii de demonstraţie, amintim că pentru funcţia de repartiţie n-dimen-
sională au loc proprietăţile:
1. F este nedescrescătoare ı̂n fiecare argument;
2. F este continuă la stânga ı̂n fiecare argument;
3. F (+∞, . . . , +∞) = 1;
4. Pentru orice k = 1, . . . n, are loc
Numai satisfacerea acestor proprietăţi, nu implică faptul că F este funcţie de repartiţie,
pentru o variabilă aleatoare n-dimensională. Pentru ai , bi i = 1, . . . n se poate arăta că
n
X n
X n
X
= F (b1 , . . . , bn ) − pi + pij − pijk + . . . + (−1)n F (a1 , . . . an ), (3.18)
i=1 i<j i<j<k
Aceasta va satisface condiţiile 1-4, dar dacă ı̂n formula precedentă luăm a1 = a2 = 21 , b1 =
b2 = 1, găsim F (1, 1) − F (1, 21 ) − F ( 12 , 1) + F ( 12 , 12 ) < 0, care nu poate fi probabilitatea
unui eveniment.
Pentru ca F , o funcţie ce satisface condiţiile 1-4, să fie funcţie de repartiţie mai trebuie
ı̂ndeplinită condiţia ∀ai , bi ∈ IR, i = 1, . . . n, membrul al doilea al formulei (3.18) este
pozitiv.
La fel ca ı̂n cazul unidimensional, vom considera o clasă de variabile aleatoare pen-
tru care există o funcţie pozitivă şi continuă cu excepţia unui număr finit de puncte
f (x1 , . . . , xn ), astfel ca
Z x1 Z xn
F (x1 , . . . , xn ) = ... f (y1 , . . . , yn )dy1 . . . dyn .
−∞ −∞
Vom numi această funcţie densitate de probabilitate n-dimensională. Dacă funcţia de
repartiţie este continuă, variabila aleatoare va fi numită continuă . Densitatea de proba-
bilitate se caracterizează prin
Z ∞ Z ∞
... f (y1 , . . . , yn )dy1 . . . dyn = 1. (3.19)
−∞ ∞
Mai observăm că ı̂n punctele de continuitate ale funcţiei f are loc
∂ n F (x1 , . . . , xn )
f (x1 , . . . , xn ) = .
∂x1 . . . ∂xn
Dacă variabila aleatoare n-dimensională are densitate de probabilitate, probabilitatea din
formula (3.18) poate fi calculată astfel:
Z b1 Z bn
P ({a1 6 X1 < b1 , . . . , an 6 Xn < bn }) = dx1 . . . f (x1 , . . . , xn )dxn .
a1 an
Variabile aleatoare continue 99
În general, dacă D ⊂ IRn este un domeniu arbitrar, probabilitatea ca variabila aleatoare
n-dimensională să ia valori ı̂n D este dată de formula
Z Z
P ({(x1 , . . . , xn ) ∈ D}) = . . . f (x1 , . . . , xn )dx1 . . . dxn .
D
P ({Xi1 < xi1 , . . . , Xik < xik }) = P ({Xi1 < xi1 }) . . . P ({Xik < xik }).
Această afirmaţie se deduce imediat din Propoziţia 3.1.3. În particular pentru n = 2,
condiţia revine la
F (x, y) = FX (x)FY (y).
Dacă variabilele considerate au densităţi de probabilitate, condiţia de mai sus este echiva-
lentă cu
f (x, y) = fX (x)fY (y). (3.20)
şi analog,
1
, ∀x ∈ [c, d],
fY (y) = d−c
0, ı̂n rest
Deci variabilele aleatoare marginale X şi Y cu densităţile marginale fX , respectiv fY sunt
independente, deoarece este satisfăcută (3.20).
1 (y−(am+b))2
=√ e− 2a2 σ 2 .
2π|a|σ
deci Y este o variabilă repartizată N (am + b, a2 σ 2 ). Deci prin transformarea liniară a unei
variabile aleatoare normale se obţine tot o variabilă normală. De aici se deduce imediat
că, dacă X : N (m, σ 2 )
X −m
: N (0, 1).
σ
Uneori este comod să găsim densitatea de probabilitate calculând funcţia de repartiţie a
variabilei aleatoare obţinute prin transformare, ca ı̂n următorul exemplu.
1 (ln y−m)2
fY (y) = FY0 (y) = FX0 (ln y) =√ e− 2σ 2 .
2πσ
Această repartiţie se numeşte lognormală.
102 Variabile aleatoare continue
Exemplul 3.3.5 Erorile de măsurare pentru două mărimi sunt X, Y independente şi
repartizate uniform pe (0, 1). Să determinăm densităţile marginale ale sumei şi diferenţei
erorilor. Vom particulariza cazul general (făcând o schimbare convenabilă de notaţii suma
şi diferenţa erorilor sunt variabile aleatoare definite prin
U =X +Y
V = X − Y.
Inversa transformării este
1
x = φ1 (u, v) = (u + v)
2
1
y = φ2 (u, v) = (u − v)
2
iar iacobianul J(u, v) = − 12 ; reprezentăm ı̂n Figurile 3.7 şi 3.8 domeniile D şi ∆. Din
ipoteza de independenţă rezultă
Deci fU V (u, v) = 1| − 1/2|, dacă (u, v) ∈ ∆ şi 0 ı̂n rest. Densitatea marginală este dată
de Z ∞
fU (u) = fU V (u, v)dv.
−∞
Exemplul 3.3.6 Un dispozitiv are două componete ale căror durate de viaţă sunt vari-
abile aleatoare independente, notate X şi Y , cu densităţile
( 1
1
, dacă x > 1, , dacă y > 1,
fX (x) = x 2 fY (y) = y2
0, ı̂n rest 0, ı̂n rest.
Variabile aleatoare continue 103
√
O măsură pentru calitatea funcţionării dispozitivului este U = XY . Să determinăm
densitatea de probabilitate a lui U . Facem schimbarea de variabile
√
U = XY
V =X
iar
2
fU V (u, v) = .
u3 v
Reprezentăm grafic cele două domenii.
Densitatea marginală este
Z ∞ Z u2
2 ln u
fU (u) = fU V (u, v)dv = 3
dv = 4 3 , ∀u > 1.
−∞ 1 uv u
unde A = (aij )i,j=1...n este o matrice simetrică, deci A = At şi care are proprietatea că
forma pătratică
XX
(X − M )t A(X − M ) = aij (xi − mi )(xj − mj )
i j
104 Variabile aleatoare continue
Presupunem pentru ı̂nceput că m1 = . . . = mn = 0. Reamintim că ı̂n acest caz există o
matrice ortogonală H (cu proprietatea HH t = In , unde In este matricea unitate), pentru
care forma pătratică are forma canonică
n
X
X t AX = λi yi2 ,
i=1
unde λi sunt valorile proprii ale lui A, care ı̂n cazul nostru sunt strict pozitive. După cum
ştim det A = λ1 . . . λn . Să verificăm satisfacerea condiţiei (3.19). Facem schimbarea de
variabile X = HY şi observăm că determinantul funcţional
D(x1 , . . . , xn )
D(y1 , . . . , yn ) = det H = 1
n
X
Z Z − 12 λi yi2 n Z
Y ∞
1 2
= ... e i=1 det Hdy1 . . . dyn = e− 2 λi yi dyi .
IRn i=1 −∞
Z ∞ Z ∞
√
− 12 λi yi2 1 z2
− 2i 2π
e dyi = √ e dzi = √ .
−∞ λi ∞ λi
Efectuând calculele obţinem
n r
Y 2π (2π) 2 (2π) 2
n n
=√ =√ .
i=1
λi λ1 . . . l n det A
Semnificaţia coeficienţilor matricei A şi unele proprietăţi vor fi studiate ı̂n Capitolul 3.5.
Vom da cazuri particulare ale legii normale.
Variabila aleatoare normală bidimensională.
Variabile aleatoare continue 105
de unde (3.26).
La fel ca ı̂n cazul bidimensional probabilitatea ca variabila (X, Y, Z) să ia valori ı̂ntr-
un elipsoid Dk , pe a cărui suprafaţă densitatea ia valori constante, elipsoid de egală
probabilitate, este r
2 − k2
P ({(X, Y, Z) ∈ DK }) = 2Φ(k) − ke 2 .
π
Elipsoidul are semiaxele a = kσx , b = kσy c = kσz .
Operaţii cu variabile aleatoare continue.
Vom deduce formule de calcul pentru densităţile de probabilitate ale sumei, dife-
renţei, produsului şi câtului de variabile aleatoare continue. Vom alege de fiecare dată
transformări convenabile şi vom utiliza formula (3.22).
Suma de variabile aleatoare continue.
Fie (X, Y ) o variabilă aleatoare continuă cu densitatea de probabilitate fXY . Con-
siderăm transformarea:
u=x+y
,
v=x
care admite inversa
x=v
y =u−v
şi iacobianul J(u, v) = −1. Din (3.22) deducem că densitatea de probabilitate a variabilei
aleatoare (U, V ) este fU V (u, v) = fXY (v, u − v)| − 1|. Luând densitatea marginală, găsim
Z ∞
fU (u) = fXY (v, u − v)dv. (3.27)
−∞
Dacă X şi Y sunt independente fXY (v, u − v) = fX (v)fY (u − v) şi densitatea sumei este
produsul de convoluţie al densităţilor fX , fY , adică
Z ∞
fU (u) = fX (v)fY (u − v)dv. (3.28)
−∞
P ({Y < y, X = xk })
FY (y|xk ) =
P ({X = xk })
dacă P ({X = xk }) > 0. Dacă funcţia de repartiţie condiţionată este derivabilă, definim
densitatea de probabilitate prin formula
d
fY (y|xk ) = FY (y|xk ).
dy
Exemplul 3.3.11 Într-un canal de comunicaţie intrarea este o variabilă X, care poate
lua valorile +1 volt , −1 volt cu aceeaşi probabilitate. Ieşirea Y = X + N unde N este
”zgomotul” ce poate fi considerat o variabilă aleatoare repartizată uniform pe intervalul
(−2, 2). Să determinăm probabilitatea P ({X = 1, Y < 0}).
Folosind formula probabilităţilor condiţionate, avem
P ({X = 1, Y < y}) = P ({Y < y}|{X = 1})P ({X = 1}) = FY (y|1)P ({X = 1}).
Funcţia de repartiţie a lui Y condiţionată de {X = 1} este
FY (y|1) = P ({N + 1 < y}) = P ({N < y − 1}) = FN (y − 1),
unde FN este funcţia de repartiţie a variabilei uniforme, care are expresia
0, x 6 −2,
x+2
FN (x) = , −2 6 x 6 2,
4
1, 2 < x.
R y R x+h
P ({Y < y, x 6 X < x + h}) −∞ x
fXY (x0 , y 0 )dx0 dy 0
FY (y|x) = lim = R x+h .
h→0 P ({x 6 X < x + h}) fX (x0 )dx0
x
În practică intervin şi alte tipuri de probabilităţi condiţionate. Lăsăm ca exerciţii,
stabilirea următoarelor formule. Dacă evenimentul ce condiţionează este {X < x} şi
FX (x) 6= 0 avem
FXY (x, y)
FY (y|{X < x}) = ,
FX (x)
Rx
f (x0 , y)dx0
−∞ XY
fY (y|{X < x}) = R +∞ R x .
−∞ −∞ XY
f (x0 , y 0 )dx0 dy 0
Dacă evenimentul care condiţionează este {x1 6 X < x2 } şi FX (x1 ) 6= FX (x2 ) avem
Integrala din (3.33) este de tip Riemann-Stieltjes (vezi Anexa 1). Dacă X are densitate de
probabilitate continuă f (x), atunci integrala din definiţie se reduce la o integrală Riemann
şi avem
Z ∞
M [X] = xf (x)dx (3.34)
−∞
Să observăm că integrala improprie din definiţie s-ar putea să nu fie convergentă. De
exemplu, variabila aleatoare repartizată Cauchy, cu densitatea de probabilitate
1
f (x) = , x ∈ IR
π(1 + x2 )
nu are medie, deoarece integrala (3.34) este divergentă. Reamintim că o variabilă aleatoare
este continuă, dacă are funcţia de repartiţie continuă. Mai general, dacă F are c1 , . . . , cn
puncte de discontinuitate (evident de prima speţă), media se obţine exprimând integrala
Stieltjes (vezi Anexa 1) ca o sumă dintre o integrală Riemann şi o sumă de salturi.
Z ∞
M [X] = f (x)dF (x) =
−∞
Z ∞ n
X
xf (x)dx + ck (F (ck + 0) − F (ck − 0)).
−∞ k=1
Exemplul 3.4.1 Să determinăm media variabilei aleatoare repartizate normal N (m,σ 2).
Facem ı̂n integrală schimbarea de variabilă y = x−m
√
2σ
şi obţinem
Z ∞ Z ∞ √
1 2√
M [X] = xf (x)dx = √ (m + 2σy)e−y 2σdy =
−∞ 2πσ −∞
Z ∞ r Z ∞
m −y 2 2 1 2
=√ e dy + σ (− e−y )0 dy = m,
π ∞ π ∞ 2
deoarece ultima integrală este 0.
Dacă X are media m şi admite densitate de probabilitate nesimetrică, cele două arii
determinate de x = m pot fi neegale. Astfel dacă X reprezintă o caracteristică numerică
studiată ı̂ntr-o colectivitate statistică, are ı̂nţeles afirmaţia că majoritatea indivizilor au
caracteristica X mai mică decât media.
Regăsim şi ı̂n cazul continuu aceleaşi proprietăţi pentru medie, pe care le-am ı̂ntâlnit
ı̂n cazul discret.
112 Variabile aleatoare continue
Propoziţia 3.4.1 Dacă X şi Y sunt variabile aleatoare ce au medii, atunci X + Y are
medie şi
M [X + Y ] = M [X] + M [Y ]. (3.35)
Demonstraţie. Vom demonstra această propoziţie ı̂n cazul particular ı̂n care X şi Y au
densităţi de probabilitate fX , respectiv fY . Folosind densitatea de probabilitate a sumei,
(3.27), avem
Z ∞ Z ∞ Z ∞ Z ∞
M [X + Y ] = xdx fXY (y, x − y)dy = dy xfXY (y, x − y)dx.
−∞ −∞ −∞ −∞
Propoziţia 3.4.2 Dacă X şi Y sunt variabile aleatoare independente ce admit medii,
atunci produsul XY are medie şi
Demonstraţie. Vom folosi formula care defineşte densitatea produsului de variabile alea-
toare (3.30), presupunând că X şi Y au densităţi de probabilitate fX , fY .
Z ∞ Z ∞
x dy
M [XY ]) = xdx fX (y)fY .
−∞ −∞ y |y|
În ultima integrală facem schimbarea x = yz şi inversăm ordinea de integrare. Găsim
Z ∞ Z ∞ Z ∞ Z ∞
x dx
M [XY ] = dy xfX (y)fY = dy yzfX (y)fY (z)dz =
−∞ −∞ y |y| −∞ −∞
= M [X]M [Y ].
Dacă o variabilă aleatoare nu are medie, alte caracteristici numerice care studiază
”tendinţa centrală” sunt modul şi mediana. Mediana a fost definită de (3.4) şi ea e-
xistă pentru orice variabilă aleatoare. De exemplu, ı̂n cazul repartiţiei Cauchy, datorită
simetriei faţa de axa Oy, mediana este me = 0, iar ı̂n cazul repartiţei normale este m.
O variabilă aleatoare poate fi unimodală, bimodală etc, după cum densitatea de pro-
babilitate are unul sau mai multe puncte de maxim local.
Media unei transformări de variabilă aleatoare.
Dacă X este o variabilă aleatoare, iar y = Ψ(x) este o tansformare de clasă C 1 ,
inversabilă, media variabilei Y = Ψ(X) dacă există, este dată de formula
Z +∞
M [Y ] = Ψ(x)fX (x)dx. (3.37)
−∞
schimbarea de variabilă şi aplicăm relaţia (3.23), unde Φ este transformarea inversă.
Exemplul 3.4.2 Dacă X : U (0, 2π), să determinăm media variabilei Y = cos X. Apli-
când formula (3.37), avem
Z 2π
1
M [Y ] = cos x dx = 0.
0 2π
Între momentele iniţiale şi cele centrate au loc relaţiile următoare, care se demonstrează
fără dificultate:
Xk Xk
i i i
µk = (−1) Ck νk−i ν1 ; νk = Cki µk−i ν1i . (3.39)
i=0 i=0
Reamintim că µ2 se numeşte dispersie sau varianţă şi se notează D2 [X], iar D[X] se
numeşte abaterea medie pătratică. Aceste caracteristici au aceleaşi proprietăţi ca ı̂n cazul
discret, demonstraţia lor nefiind dificilă.
114 Variabile aleatoare continue
Exemplul 3.4.3 Să calculăm momentele centrate ale repartiţiei normale N (m, σ 2 ). A-
vem Z ∞
1 (x−m)2
µk = √ (x − m)k e− 2σ2 dx,
σ 2π −∞
√
ı̂n care facem schimbarea de variabilă x − m = 2σy , deci
√ Z
(σ 2)k ∞ k −y2
µk = √ y e dy.
π −∞
deoarece prima expresie se anulează la limită. Deducem din relaţia de recurenţă prece-
dentă
µ2k+1 = 0
.
µ2k = (k − 1)!!σ 2k
În particular, pentru k = 2, obţinem D2 [X] = σ 2 . Regăsim, şi ı̂n cazul variabilelor
aleatoare continue, inegalitatea lui Cebâşev, cu ajutorul căreia putem aprecia gradul de
ı̂mprăştiere a valorilor variabilei; inegalitatea va constitui un important instrument de
lucru ı̂n cazul Legii numerelor mari (Capitolul 4).
Propoziţia 3.4.3 (Inegalitatea lui Cebâşev) Dacă variabila aleatoare X este continuă cu
media m şi dispersia σ 2 , atunci are loc
σ2
P ({|X − m| < }) > 1 − , ∀ > 0, (3.40)
2
sau echivalent
σ2
P ({|X − m| > }) < ∀ > 0.
2
Demonstraţie. Dispersia este dată de
Z ∞ Z m− Z m+
2 2 2
σ = (x − m) f (x)dx = (x − m) f (x)dx + (x − m)2 f (x)dx+
−∞ −∞ m−
Z +∞
+ (x − m)2 f (x)dx.
m+
Din faptul că x 6∈ (m − , m + ), rezultă (x − m)2 > 2 şi dispersia poate fi minorată prin
Z m− Z ∞
2 2
σ > f (x)dx + f (x)dx =
−∞ m+
Variabile aleatoare continue 115
Z m+
2
= 1− f (x)dx ,
m−
R∞
deoarece −∞
f (x)dx = 1. Ultima paranteză se poate scrie
Exemplul 3.4.4 Timpul mediu de răspuns al unui calculator este de 15 secunde pentru
o anumită operaţie, cu abaterea medie pătratică 3 secunde. Estimaţi probabilitatea ca
timpul de răspuns să se abată cu mai puţin de 5 secunde faţă de medie. Vom folosi
inegalitatea lui Cebâşev. Avem
9
P ({|X − 15| > 5}) 6 = 0, 36.
25
Reamintim că momentul absolut de ordin k pentru o variabilă aleatoare se defineşte prin
formula βk = M [|X|k ]. Dacă X are densitatea de probabilitate f , atunci momentul
absolut este dat de formula Z ∞
βk = |x|k fX (x)dx.
−∞
iar din presupunerea făcută, a doua integrală este convergentă. De asemenea, dacă există
moment absolut de ordin k, există momente absolute de orice ordin l 6 k. Într-adevăr,
Z ∞ Z Z
l l
|x| f (x)dx = |x| f (x)dx + |x|l f (x)dx 6
−∞ 6
|x| 1 |x|>1
Z Z
l
6 |x| f (x)dx + |x|k f (x)dx.
6
|x| 1 |x|>1
Prima integrală este finită datorită domeniului de integrare, iar a doua din presupunerea
făcută.
Inegalitatea lui Cebâşev poate fi generalizată pentru momente absolute de orice ordin
k ∈ IN , ı̂n sensul următor: dacă variabila aleatoare X are moment absolut de ordin k,
atunci
M [|X − m|k ]
P ({|X − m| < }) > 1 − , ∀ > 0, (3.41)
k
sau echivalent
M [|X − m|k ]
P ({|X − m| > }) < .
k
116 Variabile aleatoare continue
Propoziţia 3.4.4 (Inegalitatea lui Schwarz) Dacă variabilele aleatoare X şi Y au mo-
mente absolute de ordin 2, atunci XY are moment absolut de ordin 2 şi
p
β2 (XY ) 6 β2 (x)β2 (y). (3.42)
Demonstraţie. Pentru orice λ ∈ IR, inegalitatea M [(|X| + λ|Y |)2 ] > 0 este evidentă.
Efectuând calculele avem
şi folosind semnul funcţiei de gradul al doilea, inegalitatea precedentă este adevărată dacă
discriminantul ∆ 6 0, ceea ce revine la
M [|XY |2 ] 6 M [X 2 ]M [Y 2 ].
Definiţia 3.4.3 Fie X şi Y două variabile aleatoare pentru care există momentele ab-
solute de ordinul al doilea. Numărul definit de
M [XY ] = M [X]M [Y ].
Observăm că dacă X şi Y sunt independente, din Propoziţia 3.4.2 rezultă că sunt necore-
late. Se pot da exemple care să ilustreze că reciproca afirmaţiei precedente nu este
adevărată, adică pot exista variabile aleatoare necorelate fără ca ele să fie independente.
Dacă X şi Y sunt variabile aleatoare continue care admit momente absolute de ordinul al
doilea, dispersia sumei se calculează după formula
D2 (X + Y ) = D2 (X) + D2 (Y ) + 2Cov[X, Y ].
Această formulă se generalizează uşor ı̂n cazul a n variabile. Din formula (3.43) rezultă
imediat că
ρ[X, X] = 1,
iar
ρ[X, Y ] = 0 dacă şi numai dacă X şi Y sunt necorelate.
Variabile aleatoare continue 117
Propoziţia 3.4.5 Pentru oricare două variabile X şi Y , care admit coeficient de corela-
ţie, este satisfăcută inegalitatea
|ρ[X, Y ]| 6 1. (3.44)
Demonstraţie. Considerăm variabilele aleatoare X 0 = X−M D[X]
[X]
,Y 0 = Y −M [Y ]
D[Y ]
şi le aplicăm
inegalitatea lui Schwarz. Rezultă
p
|M [X 0 Y 0 ]| 6 M [X 02 ]M [Y 02 ].
Propoziţia 3.4.6 Pentru oricare două variabile aleatoare, ce admit coeficient de corela-
ţie, următoarele afirmaţii sunt echivalente:
1. |ρ[X, Y ]| = 1;
2. există a, b ∈ IR, nesimultan nule şi c ∈ IR , astfel ı̂ncât relaţia aX + bY + c = 0 are
loc aproape sigur (adică P ({aX + bY + c = 0}) = 1).
Vom schiţa demonstraţia. Într-un sens afirmaţia este imediată; anume dacă are loc
aX +bY +c = 0 aproape sigur şi presupunem b 6= 0, găsim m, n ∈ IR astfel ca Y = mX +n.
Observăm imediat că
1, dacă m > 0
ρ[X, Y ] =
−1, dacă m < 0.
X−M [X] Y −M [Y ]
Reciproc, dacă X 0 = D[X]
,Y 0 = D[Y ]
, atunci sunt evidente următoarele relaţii
0 0 0 0 2
ρ[X, Y ] = M [X Y ] = 1 şi M [(X ± Y ) ] = 0. Într-un cadru mai general decât cel prezen-
tat ı̂n acest curs (vezi [22]), se poate arăta că din ultima egalitate rezultă că X 0 ± Y 0 = 0
aproape sigur, deci:
X − M [X] Y − M [Y ]
=± .
D[X] D[Y ]
Schimbând eventual notaţiile, din ultima egalitate deducem 2.
Noţiunea de moment poate fi extinsă la variabile aleatoare multidimensionale.
Definiţia 3.4.4 Dacă (X1 , . . . , Xn ) este o variabilă aleatoare n-dimensională cu densita-
tea de probabilitate fX1 ...Xn , numim moment iniţial de ordinul (k1 . . . kn ) numărul
Z Z
k1 kn
νk1 ...kn = M [X1 , . . . , Xn ] = . . . xk11 . . . , xknn fX1 ...Xn (x1 , . . . xn )dx1 . . . dxn .
IRn
Definiţia 3.4.5 Dacă X şi Y sunt două variabile aleatoare n-dimensionale, matricea de
elemente
Cov[Xi Yj ], i = 1, . . . n, j = 1, . . . n.
se numeşte matricea de covarianţă.
118 Variabile aleatoare continue
Medii condiţionate.
Dacă X este o variabilă aleatoare cu densitatea de probabilitate f şi A ∈ K, definim
media lui X condiţionată de A
Z +∞
M [x|A] = xf (x|A)dx (3.45)
−∞
Exemplul 3.4.5 Fie T variabila aleatoare care dă timpul de funcţionare până la prima
defectare. Să determinăm media lui T , condiţionată de faptul că sistemul a funcţionat
până la momentul t. Folosind un raţionament asemănător cu cel pentru deducerea formulei
(3.15), deducem
f (x)
f (x|{T 6 t}) = R +∞ , x 6 t.
t
f (x)dx
Atunci cu ajutorul relaţiei (3.45), obţinem
R +∞
xf (x)dx
M [T |{T 6 t}] = Rt +∞ .
t
f (x)dx
Dacă X şi Y sunt două variabile aleatoare cu densităţile de probabilitate fX , fY definim
mediile condiţionate prin formulele
Z +∞
M [Y |x] = yfY (y|x)dy
−∞
Z +∞
M [X|y] = xfX (x|y)dx,
−∞
dacă există. Se poate arata că mediile condiţionate sunt de fapt variabile aleatoare, care
admit la rândul lor medie, ce se exprimă prin formulele integrale ale mediei totale.
Z +∞
M [Y ] = M [Y |x]fX (x)dx
−∞
Z +∞
M [X] = M [X|y]fY (y)dy.
−∞
Să deducem prima egalitate.
Z +∞ Z +∞ Z +∞
M [Y |x]fX (x)dx = fX (x)dx yfY (y|x)dy =
−∞ −∞ −∞
Z +∞ Z +∞
= ydy fY (y|x)fX (x)dx.
−∞ −∞
Dacă folosim (3.32) şi densitatea de probabilitate marginală, deducem că ultima formulă
reprezintă chiar M [Y ].
Variabile aleatoare continue 119
Z +∞ Z +∞
2 2
M [N ] = M [N |t]fT (t)dt = (βt + β 2 t2 )fT (t)dt = βM [T ] + β 2 M [T 2 ].
0 0
1 1
Să mai observăm că T fiind variabilă exponenţială M [T ] = α
, D2 [T ] = α2
. Deci
2
M [N ] = αβ D2 [N ] = αβ 2 + αβ .
Tinând cont că eiy = cos y + i sin y cu y ∈ IR , eitX reprezintă o variabilă aleatoare
bidimensională cu componentele (cos tX, sin tX). Deoarece |eitx | = 1, funcţia caracteris-
tică există pentru orice variabilă aleatoare ce admite densitate de probabilitate. Vom
mai nota ϕX (t), pentru a pune ı̂n evidenţă cărei variabile aleatoare i se asociază funcţia
caracteristică. Definiţia funcţiei caracteristice reprezintă transformata Fourier aplicată
funcţiei absolut integrabile fX ; o formulă de inversare va fi formulată ı̂n prezenţa condiţiei
suplimentare de absolută integrabilitate a funcţiei caracteristice, ı̂n Teorema 5.3 din acest
capitol.
Demonstraţie.
1. şi 2. sunt evidente.
3. Să calculăm
Z ∞ Z ∞ Z ∞
−itx
ϕ(−t) = e ϕ(x)dx = eitx f (x)dx = eitx f (x)dx = ϕ(t).
−∞ −∞ −∞
iar din continuitatea exponenţialei există h suficient de mic ı̂ncât |eihx − 1| < /2. Atunci
putem scrie
Z A Z
ihx
|ϕ(t + h) − ϕ(t)| 6 |e − 1|f (x)dx + f (x)dx < .
−A >
|x| A
cazul cel mai general cu excepţia unei mulţimi de probabilitate nulă (deci aproape sigur).
Demonstrăm afirmaţia ı̂n cazul ı̂n care f este continuă. Arătăm, mai ı̂ntâi, că ultimele
două afirmaţii sunt echivalente. Avem
Se poate arăta, ı̂n prezenţa unor rezultate suplimentare şi care nu sunt cuprinse ı̂n acest
curs, că din faptul că ϕ este reală, rezultă f (x) = f (−x).
Demonstraţie.
1. ϕY (t) = M [eity ] = M eit(aX+b) = eitb M eitaX = eitb ϕX (at).
2. ϕX+Y (t) = M eit(X+Y ) = M eitX eitY = ϕX (t)ϕY (t).
Cunoaşterea funcţiei caracteristice permite calculul momentelor iniţiale, după cum
rezultă din următoarea teoremă.
ϕ(k) (0)
νk = , k = 1, . . . n.
ik
Demonstraţie. Derivăm formal de k ori sub integrala cu parametru din definiţia funcţiei
caracteristice. Găsim după majorări
Z ∞
(k) k
ϕ (t) = i xk eitx f (x)dx,
−∞
iar Z
∞
x e f (x)dx 6 βk 6 βn , ∀k = 1, . . . n,
k itx
−∞
ϕ(k) (0) = ik νk .
122 Variabile aleatoare continue
Teorema 3.5.2 Dacă X este o variabilă aleatoare continuă care admite momente ab-
solute de orice ordin, atunci funcţia caracteristică admite dezvoltare ı̂n serie de puteri de
forma
X∞
(it)k
ϕ(t) = νk .
k=0
k!
Demonstraţie. Înlocuim ı̂n definiţia funcţiei caracteristice dezvoltatea ı̂n serie a expo-
nenţialei şi găsim Z ∞
ϕ(t) = eitx ϕ(x)dx =
−∞
Z ∞
itx (itx)n−1 (itx)n ixθ
1+ + ... + + e f (x)dx =
−∞ 1! (n − 1)! n!
it (it)n−1
= ν0 + ν1 + . . . + νn−1 + Rn .
1! (n − 1)!
Majorând restul obţinem
Z Z
(it)n ∞ n itθ |t|n ∞ n
|Rn | =
x e f (x)dx 6 |x| f (x)dx < ∞.
n! −∞ n! −∞
Se observă că lim Rn = 0, deci afirmaţia este adevărată.
n→∞
Teorema 3.5.3 (Formula de inversiune) Fie X o variabilă aleatoare având ϕ şi F , res-
pectiv, funcţia caracteristică şi funcţia de repartiţie. Dacă x1 , x2 , cu x1 < x2 sunt puncte
de continuitate ale lui F , atunci are loc
Z c −itx1
1 e − e−itx2
F (x2 ) − F (x1 ) = lim ϕ(t)dt. (3.46)
c→∞ 2π −c it
Demonstraţie. Observăm că pentru c ∈ IR, funcţia de sub integrală este continuă, dacă o
definim ı̂n t = 0 prin
e−itx1 − e−itx2
lim = (x2 − x1 )ϕ(0).
t→0 it
De asemenea, funcţia are un majorant integrabil, deci integrala
Z c −itx1
1 e − e−itx2
Ic = ϕ(t)dt
2π −c it
este convergentă. Considerăm cazul particular ı̂n care X are densitate de probabilitate f
şi ı̂nlocuim ı̂n integrala precedentă pe ϕ
Z c Z ∞ −itx1
1 e − e−itx2 itz
Ic = e f (z)dzdt.
2π −c −∞ it
Prin schimbarea ordinii de integrare (posibilă deoarece ı̂n raport cu z avem absolută
convergenţă, iar ı̂n raport cu t integrarea se face pe interval finit), găsim
Z ∞ Z c it(z−x1 )
1 e − eit(z−x2 )
Ic = dt f (z)dz =
2π −∞ −c it
Variabile aleatoare continue 123
Z ∞ Z 0 Z c
1 eit(z−x1 ) − eit(z−x2 ) eit(z−x1 ) − eit(z−x2 )
= dt + dt f (z)dz.
2π −∞ −c it 0 it
În prima integrală făcând schimbarea t → −t, obţinem
Z ∞ Z c
1 −e−it(z−x1 ) + e−it(z−x2 ) + eit(z−x1 ) − eit(z−x2 )
Ic = dt f (z)dz =
2π −∞ 0 it
Z Z
1 ∞ c sin t(z − x) sin t(z − x2
= − dtf (z)dz
π −∞ 0 t t
Alegem un δ > 0 astfel ı̂ncât x1 + δ < x2 − δ şi descompunem integrala pe domeniile :
(−∞, x1 − δ), (x1 − δ, x1 + δ), (x1 + δ, x2 − δ), (x2 − δ, x2 + δ), (x2 + δ, ∞).
unde limita este uniformă ı̂n raport cu α. Pe intervalul (−∞, x1 − δ), avem z − x2 <
z − x1 < −δ < 0, deci
Z
1 c sin t(z − x1 ) sin t(z − x2 )
− dt → 0, dacă c → ∞
π 0 t t
şi cum integrala este uniform mărginită ı̂n raport cu c, putem comuta integrala cu limita
şi obţinem
Z x1 −δ Z c
1 sin t(z − x1 ) sin t(z − x2 )
− dtf (z)dz → 0, dacă c → ∞ (3.47)
−∞ π 0 t t
şi analog
Z ∞ Z c
1 sin t(z − x1 ) sin t(z − x2 )
− dtf (z)dz → 0, pentru c → ∞. (3.48)
x2 +δ π 0 t t
Pe intervalul (x1 + δ, x2 − δ) folosind formula lui Dirichlet şi convergenţa uniformă ı̂n
raport cu α, deducem
Z x2 −δ Z c
1 sin t(z − x1 ) sin t(z − x2 )
lim − dtf (z)dz =
c→∞ x +δ π 0 t t
1
Z x2 −δ
sin t(z − x1 ) sin t(z − x2 )
= − dtf (z)dz = F (x2 − δ) − F (x1 + δ). (3.49)
x1 +δ t t
Pe intervalele (x1 − δ, x1 + δ) şi (x2 − δ, x2 + δ), integralele pot fi majorate respectiv, dacă
folosim din nou formula lui Dirichlet, cu
Pentru orice > 0, din (3.47) şi (3.48) există c astfel ı̂ncât ∀c > c are loc
Z ∞ Z c
1 sin t(z − x ) sin t(z − x )
1
−
2
f (z)dz 6
π t t
−∞ 0
Z c
e−itx1 − e−itx2
F (x2 ) = lim lim ϕ(t)dt
x1 →−∞ c→∞ −c it
Teorema 3.5.5 Dacă funcţia caracteristică este absolut integrabilă pe IR, adică
Z ∞
|ϕ(t)|dt < ∞,
−∞
F (x + h) − F (x − h)
lim = Fs0 (x),
h→0 2h
şi
Fs0 (x) = f (x)
ı̂n orice punct de continuitate a lui f .
Demonstraţie. Pentru orice două puncte de continuitate ale lui F , are loc din formula de
inversiune Z ∞ −itx1
1 e − e−itx2
F (x2 ) − F (x1 ) = ϕ(t)dt,
2π −∞ it
Variabile aleatoare continue 125
deoarece folosind ipoteza, funcţia din membrul al doilea este integrabilă. Presupunând că
x1 = x − h, x2 = x + h, atunci :
Z ∞
1 sin th −itx
F (x + h) − F (x − h) = 2h e ϕ(t)dt.
2π −∞ th
Deoarece
sin th
th 6 1,
avem
−itx sin th
e ϕ(t) 6 |ϕ(t)|, ∀h ∈ IR,
th
şi
sin th
lim e−itx = e−itx .
h→0 th
Într-un cadru mult mai general decât cel prezent, se poate demonstra un criteriu de
convergenţă dominată a lui Lebesgue [22], ı̂n baza căruia putem trece la limită sub inte-
grală şi găsim
Z ∞
0 F (x + h) − F (x − h) 1
Fs = lim = e−itx ϕ(t)dt. (3.51)
h→0 2h 2π −∞
Să demonstrăm că Fs0 este continuă; ı̂ntr-adevăr
Z
1 ∞ th
|Fs0 (x + h) − Fs (x)| 6 2 sin |ϕ(t)|dt =
2π −∞ 2
Z Z
1 th th
= sin |ϕ(t)|dt + 1 sin |ϕ(t)|dt.
π 2 π |t|>A 2
|t|6A
Prima integrală poate fi făcută < /2, dacă alegem h suficient de mic, deci
de unde rezultă continuitatea. Reamintim că ı̂n orice punct de continuitate pentru f ,
are loc F 0 (x) = f (x), de unde afirmaţia teoremei, deoarece derivata simetrică coincide cu
derivata.
Relaţia (3.51) constituie formula de inversare, care exprimă densitatea de probabilitate
cu ajutorul funcţiei caracteristice. Vom demonstra ı̂n continuare teorema lui Bochner,
care dă o descriere completă a funcţiilor caracteristice, acest rezultat fiindu-ne necesar la
studiul proceselor stochastice staţionare.
126 Variabile aleatoare continue
Definiţia 3.5.2 Funcţia ϕ : IR → IR, continuă, se numeşte pozitiv definită pe IR, dacă
∀t1 , . . . , tn ∈ IR şi z1 , . . . , zn ∈ C, ∀n ∈ IN , are loc
n X
X n
ϕ(tj − tk )zj zk > 0.
k=1 j=1
De unde, dacă |ϕ(t)| 6= 0 rezultă ϕ(0) > |ϕ(t)|, iar dacă |ϕ(t)| = 0, din prima proprietate
deducem din nou afirmaţia.
Z n X
n Z n
! n
!
∞ X ∞ X X
= eix(tk −tj ) f (x)zk zj dx = eitk x zk e−itj x zj f (x)dx =
−∞ k=1 j=1 −∞ k=1 j=1
Variabile aleatoare continue 127
n
Z 2
X ∞
itk x
= e zk f (x)dx > 0.
−∞
k=1
Deoarece G1 majorează G, pentru mărginirea lui G este suficient să arătăm marginirea
lui G1 . Să calculăm
Z 2u Z Z Z Z
1 sin tx 1 − cos tx 2u
G1 (u) = p(t) dtdx = p(t) u dt =
πu u −Z t πu −Z t2
Z Z
1 1
= p(t) 2 (cos ut − cos2ut)dt =
πu −Z t
Z Z Z Z
2 (sin ut)2 2 (sin ut
2
)2
= p(t) dt − p(t) dt.
πu −Z t2 πu −Z t2
Fie M = sup |p(t)|. Atunci
Z Z Z ∞
2 (sin ut)2 (sin ut)2
p(t) dt 6 2M udt,
πu −Z t2 −∞ u2 t 2
iar Z Z
2 Z
(sin ut2
)2 M ∞
(sin v)2
p(t) 2
dt 6 dv.
u −Z t π −∞ v2
Întegralele din membrul al doilea sunt convergente. Deci mărginirea este asigurată. Se
constată că Z ∞
1
pZ (x) = p(t)e−itx dt
2π −∞
1
adică 2π pZ este transformata Fourier a funcţiei p. Folosind formula de inversiune pentru
funcţia p continuă (vezi [10]), rezultă că
Z ∞
1 |t| 1
1− ϕ(t) = pZ (x)eitx dx, ∀|t| 6 Z.
2π Z 2π −∞
iar funcţia pZ fiind continuă şi integrabilă pe IR, constituie o densitate de probabilitate
pentru o variabilă aleatoare, care are funcţia caracteristică asociată p. Observăm că
pentru Z → ∞, funcţia p(t) converge uniform la ϕ, pe fiecare interval mărginit. De aici,
folosind convergenţa ı̂n repartiţie Capitolul 4, rezultă că ϕ este o funcţie caracteristică.
1 (x−m)2
f (x) = √ e− 2σ2
2πσ
pe care o√ı̂nlocuim ı̂n expresia funcţiei caracteristice. Facem schimbarea de variabilă
x − m = 2σy şi obţinem
Z ∞ (x−m)2
Z ∞ √
1 itx − 2σ 2 1 2
ϕ(t) = √ e e dx = √ eitm−y +ity 2σ dy =
2πσ −∞ π −∞
t2 σ 2 Z ∞
eitm− 2 t2 σ 2
e−(y− 2 i) dy = eimt −
tσ 2
= √ 2 .
π −∞
În particular, dacă X este o variabilă repartizată N (0, 1), funcţia sa caracteristică este
t2
ϕ(t) = e− 2 .
Folosind Propoziţia 3.5.2 determinăm comod repartiţia sumei de variabile aleatoare nor-
male.
σ2
este repartizată N (m, ).
n
Demonstraţie. Din Teorema 3.6.1 suma este repartizată N (nm, nσ 2 ). Să calculăm funcţia
de repartiţie a variabilei aleatoare notată
n
1X
X= Xk .
n k=1
Avem
n
X
FX = P ({X < x}) = P ({ Xk < nx}).
k=1
X n
Z Z −i t k xk
ϕ(t1 , . . . , tn ) = ... e k=1 f (x1 , . . . , xn )dx1 . . . dxn .
IRn
|l |
Ultima integrală ı̂nmulţită cu √2π j
reprezintă funcţia caracteristică pentru o variabilă
1
aleatoare repartizată N (0, lj ), deci folosind (3.52), avem
Pn u2
j
− 12
ϕ(t1 , . . . , tn ) = e j=1 lj
.
unde lj > 0, sunt valorile proprii ale matricei A. Prin inversare găsim
1
l1
0 ... 0
H −1 A−1 H = 0 l12 . . . 0 ,
0 0 . . . l1n
deci ı̂n ultima integrală recunoaştem că exponentul este următorul produs de matrice
n
X u2j
= U t (H −1 A−1 H)U =
j=1
lj
+a−1 −1
hk ϕ(t1 , . . . , tn )(0, . . . , 0) = mh mk + ahk .
Deci A−1 este matricea de covarianţă a variabilei normale n-dimensionale. Pe baza acestei
observaţii ı̂n cazul 2-dimensional, repartiţia normală poate fi scrisă sub o formă mai
comodă. Notăm:
M [X1 ] = m1 , M [X2 ] = m2
D2 (X1 ) = σ12 , D2 (X2 ) = σ22
Variabile aleatoare continue 133
Cov[X1 , X2 ] = ρσ1 σ2
şi găsim
−1 σ12 ρσ1 σ2
A =
ρσ1 σ2 σ22 ,
de unde, prin inversare, găsim
1 σ22 −ρσ1 σ2
A=
(1 − ρ2 )σ12 σ22 −ρσ1 σ2 σ12
Exemplul 3.6.1 Variabila aleatoare (X, Y, Z) este normal repartizată şi are matricea de
covarianţă
1 0, 2 0, 3
0, 2 1 0, 4 .
0, 3 0, 4 1
Să determinăm densitatea de probabilitate a variabilei aleatoare marginale (X, Z). Ob-
servăm pentru aceasta că matricea de covarianţă este
1 0, 3
.
0, 3 1
Vom enunţa un rezultat care stabileşte legătura dintre convergenţa funcţiilor caracteristice
şi cele de repartiţie, de mare utilitate practică. Demonstraţia acestui rezultat se găseşte
de exemplu ı̂n [10] şi este făcută ı̂ntr-un cadru mai general.
Teorema 3.6.2 Dacă şirul de funcţii caracteristice ϕn converge pentru orice t la ϕ(t) =
t2
e− 2 , atunci şirul funcţiilor de repartiţie corespunzătoare Fn satisface:
Z x
1 u2 1
lim Fn (x) = e− 2 = + Φ(x).
n→∞ 2π −∞ 2
1
Reamintim că 2
+ Φ(x) este funcţia de repartiţie a variabilei aleatoare normale normate.
Z ∞
1 n x 2 ti)
= n n n x 2 −1 e− 2σ2 (1−2σ dx.
2 2 σ Γ( 2 ) 0
În ultima integrală facem schimbarea 2σx2 (1 − 2σ 2 ti) = y; atunci integrala precedentă
devine n2 Z ∞ n
2σ 2 n
−1 −y 2 2 σn n
2
y 2 e dy = n Γ( ),
1 − 2σ ti 0 (1 − 2σ ti) 2 2
2
de unde se obţine imediat afirmaţia. Pentru calculul momentelor, vom deriva funcţia
caracteristică. Avem
n
ϕ0 (t) = inσ 2 (1 − 2σ 2 ti)− 2 −1 ,
n
ϕ00 (t) = i2 n(n + 2)σ 4 (1 − 2σ 2 ti)− 2 −2 ,
..
.
n
ϕ(k) (t) = ik n(n + 2) . . . (n + 2k − 2)σ 2k (1 − 2σ 2 ti)− 2 −k .
Folosind apoi Teorema 3.5.1, găsim
1
ν1 = ϕ0 (0) = nσ 2 ,
i
1 00
ν2 = ϕ (0) = n(n + 2)σ 4 ,
i2
..
.
1 (k)
νk = ϕ (0) = n(n + 2) . . . (n + 2k − 2)σ 2k .
ik
Următoarea teoremă este un important instrument de lucru ı̂n statistica matematică.
Folosind acum faptul că funcţia caracteristică a sumei este produsul funcţiilor caracte-
ristice, obţinem
Yn
1 n
ϕ(t) = (1 − 2σ 2 ti)− 2 = (1 − 2σ 2 ti)− 2 ,
k=1
X1 + X2 : H(n1 + n2 , σ).
În practică interesează determinarea unor probabilităţi de forma P ({X > δ}), unde
X : H(n, 1), deoarece se verifică imediat că dacă X : H(n, σ), atunci variabila aleatoare
X
: H(n, 1).
σ2
Există tabele ı̂ntocmite pentru diferite valori ale lui δ şi ale numărului de grade de libertate
n, care au ca rezultate ariile din Figura 3.14.
Când numărul de grade de libertate este foarte mare, se foloseşte comportarea la limită
a şirului de variabile aleatoare repartizate χ2 .
X − nσ 2
√
2nσ 2
2t − 2 2 n t2
Calculăm limita lui |ϕn (t)| ) , pentru n → ∞ şi găsim e− 2 . Funcţia ϕn (t) poate
p n= (1+ n p
fi scrisă sub forma (cos t 2 −i sin t n2 )(cos n2 θn −i sin n2 θn )ρn , unde (cos θn +i sin θn )ρn =
q
1 − n2 it. Pentru n suficient de mare,
r
2
θn = − arctan t.
n
Deci argumentul numărului complex ϕn (t) poate fi luat de forma
√ r
n n 2
yn = −t + arctan t .
2 2 n
q
Notând x = n2 , avem de calculat
arctan tx − tx
lim
x→0 x2
t2
care este 0. Deci lim ϕn (t) = e− 2 .
n→∞
Xn Xn
M [li lj ] = M [li ]M [lj ] = M [ aik Xk ]M [ ajk Xk ] = 0,
k=1 k=1
Variabile aleatoare continue 137
n
X n
X
= aik ajk M [Xk2 ] = aik ajk ,
k=1 k=1
n
X
deoarece M [Xm Xl ] = M [Xm ]M [xl ] = 0. Analog, M [li2 ] = a2ik = 1, ∀i = 1, . . . , s.
k=1
Sistemul celor s vectori (a11 , . . . , an1 ), . . . , (as1 , . . . , asn ) este ortogonal şi poate fi deci
completat la o bază ortonormată. Notăm matricea corespunzătoare cu A = (aij ) i, j =
1, . . . , s, care este deci ortogonală şi au loc prin urmare
n
X n
X
a2jk = 1, aik ajk = 0, ∀i, j = 1, . . . , n.
k=1 k=1
Introducem notaţiile
n
X
lr (x1 , . . . , xn ) = ark xk , r = s + 1, . . . , n,
k=1
Deci n s n
X X X
Q= Xk2 − lj2 = lk2 (x1 , . . . , xn ).
k=1 j=1 k=s+1
atunci condiţia necesară şi suficientă ca Qi să fie variabile aleatoare independente este ca
r1 + . . . + rs = n.
138 Variabile aleatoare continue
Demonstraţie. Pentru ı̂nceput să presupunem că Qi sunt independente. Dacă Qi este
o formă pătratică de rang ri , atunci poate fi scrisă ca sumă de ri pătrate de variabile
aleatoare normale normate, deci Ps din Teorema 3.6.3 fiecare Qi este repartizată H(ri , 1), iar
suma lor este repartizată H( i=1 ri , 1), deoarece din ipoteză Qi sunt independente. Pe
Xn
de altă parte, Xj2 : H(n, 1). Rămâne să observăm că funcţia de repartiţie este unică,
j=1
s
X
deci rj = n.
j=1
Reciproc. Dacă Qi (X1 , . . . , Xn ) sunt forme pătratice şi r1 + . . . rn = n există o matrice
ortogonală A astfel ı̂ncât
Xs n
X
Qi (x1 , . . . , xn ) = lk2 ,
i=1 k=1
l1
..
unde L = . = AX. Fiecare formă pătratică Qi este sumă de ri pătrate li , reparti-
ln
zate N (0, 1) (obţinute printr-o transformare ortogonală de variabile normal repartizate),
deci Qi sunt repartizate H(ri , 1) . Se verifică uşor că sunt şi independente.
Vom nota X : S(n). Să verificăm mai ı̂ntâi că f este o densitate de probabilitate. Ob-
servăm că din paritatea funcţiei
Z ∞ Z ∞
f (x)dx = 2 f (x)dx.
−∞ 0
√
Facem schimbarea de variabilă x = ny, după care găsim
Z ∞ − n+1 Z ∞
x2 2 √ n+1
1+ dx = n (1 + y 2 )− 2 dy.
0 n 0
y2
În ultima integrală substituţia 1+y 2
= t, ne duce la funcţia Beta vezi Anexa 3. Într-adevăr,
1 − 12 − 23
dy = 2
t (1 − t) dt, şi
Z Z
∞
2Γ( n+1 ) √ 1
n+1 1 −1 3
f (x)dx = √ 2
n n (1 − t) 2 t 2 (1 − t)− 2 dt =
−∞ πnΓ( 2 ) 0 2
Γ( n+1
2
) n
= 1 n B( , 1) = 1.
Γ( 2 )Γ( 2 ) 2
Variabile aleatoare continue 139
Momentele repartiţiei Student. Funcţia f fiind pară, media este 0, deci momentele
iniţiale coincid cu cele centrate, iar toate cele de ordin impar sunt nule.
Z Z ∞ − n+1
∞
2k Γ( n+1
2
) 2k x2 2
µ2k = ν2k = x f (x)dx = √ x 1 + dx.
−∞ πnΓ( n2 ) −∞ n
√
Folosind substituţia x = ny, reducem, ca mai ı̂nainte, la o integrală Beta şi obţinem
nk Γ(k + 12 )Γ( n2 − k) n
µ2k = √ n , dacă − k > 0.
π Γ( 2 ) 2
Demonstraţie. Vom folosi formula lui Legendre (vezi [10]). Pentru orice a > 0 are loc
√
1 π
Γ(a)Γ(a + ) = 2a−1 Γ(2a).
2 2
Pentru a arăta că
Γ( n+1 ) 1
lim √ 2 n = √ ,
n→∞ nΓ( 2 ) 2
vom analiza separat cazurile n par şi n impar. Reamintim formula lui Wallis
22n (n!)4
π = lim .
n→∞ n((2n)!)2
Deci pentru un număr mare de grade de libertate, se utilizează tabelele legii normale.
Pentru repartiţia Student există tabele care determină, pentru n = 1, . . . 30, valorile
P ({|X| > δ}) = α, adică ariile haşurate din figură 3.15. De asemenea există tabele pentru
calculul funcţiei de repartiţie Z x
F (x) = f (t)dt,
−∞
adică de determinare a ariilor din Figura 3.16, pentru x > 0. Pentru x < 0, se folosesc
aceleaşi tabele, dar ţinem seama de
Z −x Z x Z ∞
F (−x) = f (t)dt = − f (−t)dt = f (t)dt = 1 − F (x).
−∞ −∞ x
Facem schimbarea
u(x, y) = sx
y
n .
v(x, y) = y
Variabile aleatoare continue 141
u2
( + 1)v
aceasta datorită schimbării de variabilă n 2 = t.
2σ
Consecinţă. Dacă variabilele aleatoare independente X1 , . . . , Xn+1 sunt repartizate
N (0, σ 2 ), atunci variabila aleatoare
Xn+1
r : S(n).
X12 + . . . + Xn2
n
Demonstraţia este imediată, dacă se foloseşte faptul că X12 + . . . + Xn2 este repartizată
H(n, σ).
Teorema 3.6.10 Fie X1 , . . . , Xn variabile aleatoare independente repartizate
X 1 + . . . Xn
N (0, σ) şi X = . Atunci variabila aleatoare
n
p X
y = n(n + 1) v
uX
u n
t (Xj − X)2
j=1
Deci n n
X X
2
Y12 + ... + 2
Yn−1 = Xj2 − nX = (Xj − X)2 .
j=1 j=1
n22 n1 + 2
ν2 = (3.54)
n1 (n2 − 2)(n2 − 4)
n2 X12 + . . . Xn21
n1 Y12 + . . . + Yn22
este repartizată S(n1 , n2 ). Dacă variabila aleatoare X este repartizată S(n1 , n2 ), variabila
1
aleatoare ln X are densitatea de probabilitate
2
n21 − n1 +n2
n1 Γ n1 +n
2
2
n1 x n1 2x
2
f (x) = 2 e 1+ e . (3.55)
n2 Γ n21 Γ n22 n2
O variabilă aleatoare având această densitate se numeşte Fisher.
µ2 = ν2 − ν12 = m(m + 1) − m2 = m,
ϕ(t) = (1 − it)−m ,
Exemplul 3.6.2 Repartiţia Erlang Să determinăm repartiţia sumei de n variabile alea-
toare independente, repartizate exponenţial, cu parametrul λ. Funcţia caracteristică a
repartiţiei exponenţiale este
λ
ϕ(t) = .
λ − it
Sumei de variabile exponenţiale ı̂i corespunde funcţia caracteristică
n
λ
ϕn (t) = ,
λ − it
iar aceasta corespunde variabilei aleatoare cu densitatea de probabilitate
λe−λx (λx)n−1
f (x) = , x > 0.
(n − 1)!
Să determinăm funcţia de reparticţie a variabilei Erlang.
Z x
λn−1
F (x) = y n−1 λe−λy dy.
(n − 1)! 0
Integrăm prin părţi şi avem
Z x
λn−1
F (x) = −y n−1 eλy |x0 + (n − 1)y n−2 −λy
e dy =
(n − 1)! 0
Z x
(λx)n−1 −λx λn−2
=− e + y n−2 λe−λy dy.
(n − 1)! (n − 2)! 0
Repetı̂nd integrarea prin părţi, găsim
n−1
X (λx)k
F (x) = 1 − eλx .
k=0
k!
Recunoaştem ı̂n suma precedentă primii n termeni ai unei repartiţii Poisson. Legătura
dintre aceste două repartiţii va fi evidenţiată la procese Poisson.
3.7 Fiabilitate
În sensul cel mai larg , fiabilitatea reprezintă proprietatea unui dispozitiv de a-şi
ı̂ndeplini funcţia specifică ı̂n condiţii de exploatare date. O analiză completă a fiabilităţii
ne pune ı̂n evidenţă:
-fiabilitatea precalculată, care se evaluează pornind de la concepţia dispozitivului şi a
componentelor sale;
-fiabilitate tehnică (nominală) determinată ı̂n urma ı̂ncercărilor ı̂n condiţii de fabrică;
-fiabilitate de exploatare, determinată de condiţiile reale de exploatare, cu luarea ı̂n
considerare a acţiunii complexe a tuturor factorilor ce influenţează funcţionarea.
Fiabilitatea poate fi exprimată cantitativ prin parametrii de fiabilitate. Determinarea
lor se face ı̂n practică ı̂n urma prelucrării statistice a datelor. Cel mai frecvent utilizată
este probabilitatea funcţionării fără defecţiune ı̂ntr-un interval de timp. Intervalul de timp
ı̂n care sistemul funcţionează fără defecţiuni este o variabilă aleatoare pe care o notăm cu
T.
Definiţia 3.7.1 Numim funcţie de fiabilitate sau reliabilitate funcţia R : IR+ → [0, 1]
definită prin
R(t) = P ({T > t}).
Observăm că 1 − R(t) este funcţia de repartiţie, care ı̂n sensul fiabilităţii măsoară pro-
babilitatea ca până la momentul t să apară o defecţiune. Funcţia F (t) = 1 − R(t) se mai
numeşte funcţie de nesiguranţă. În strânsă legătură cu proprietăţile funcţiei F (t), putem
enunţa pe cele ale lui R.
1. R(0) = 1;
2. lim R(t) = 0;
t→∞
3. t1 < t2 =⇒ R(t1 ) > R(t2 );
4. Dacă f este densitatea de probabilitate pentru variabila T ,
f (t) = −R0 (t).
În Figura 3.17 sunt reprezentate cele două funcţii.
Observăm că la momentul iniţial funcţia de fiabilitate este maximă, iar nesiguranţa
minimă şi dacă t → ∞ se produce fenomenul invers. Vom presupune că se poate preciza o
funcţie, numită rată de defectare şi notată r, cu proprietatea că r(t)∆t este probabilitatea
ca ı̂n intervalul (t, t + ∆t) să apară o defecţiune, dacă până la momentul t, dispozitivul a
funcţionat . Condiţia din definiţie este o probabilitate condiţionată :
P ({t 6 T < t + ∆t})
r(t)∆t = P ({t 6 T < t + ∆}| {T > t}) = =
P ({T > t})
F (t + ∆t) − F (t) R(t + ∆t) − R(t)
= =− .
R(t) R(t)
În ultima relaţie ı̂mpărţim prin ∆t şi trecem la limită pentru ∆t → 0. Dacă această limită
există, găsim ecuaţia diferenţială
R0 (t)
− = r(t),
R(t)
Variabile aleatoare continue 147
cu condiţia iniţială
R(0) = 1,
care are ca soluţie Rt
R(t) = e− 0 r(s)ds
. (3.56)
În practică sunt utilizate o parte din repartiţiile continue prezentate anterior, dar şi altele
specifice.
Pentru diferite valori ale lui α, ı̂n Figura 3.18 sunt reprezentări grafice ale densităţii
de probabilitate, iar ı̂n Figura 3.19 şi 3.20 ale ratelor şi funcţiilor de fiabilitate.
În general variaţia defecţiunilor unui dispozitiv se poate ı̂mpărţi ı̂n trei perioade.
1. perioada iniţială ı̂n care apar defecţiuni datorate erorilor de fabricaţie şi se face
rodajul (copilăria);
2. perioada de funcţionare care ı̂ncepe după rodaj, când numărul defecţiunilor scade,
rămânând practic constant (maturitatea), pentru care se poate utiliza distribuţia expo-
nenţială;
3. perioada ın care intensitatea de defectare creşte continuu, datorită uzurii (bătrâ-
neţea).
Componentele unui dispozitiv pot fi legate ”ı̂n serie”, sau ”ı̂n paralel”. Vom analiza
modul de determinare a fiabilităţii pentru fiecare situaţie ı̂n parte.
Legare ı̂n serie. Spunem că un dispozitiv are n componente legate ı̂n serie, dacă
defectarea uneia, atrage nefuncţionarea ı̂ntregului sistem. Convenim să vizualizăm prin
schema de la Figura 3.21.
Presupunem că fiecare componentă Ci , i = 1, . . . n, se poate defecta indiferent de
celelalte, cu rata de defectare ri şi funcţia de fiabilitate Ri . Dacă T , respectiv Ti , i =
1, . . . , n semnifică timpul de funcţionare până la prima defectare a sistemului, respectiv a
componentei Ci , atunci evident
n
\
{T > t} = {Ti > t}
i=1
Yn n
Y − ri (s)ds
0 i=1
R(t) = Ri (t) = e =
i=1 i=1
Z tXn
− ri (s)ds
0 i=1
=e .
Deci rata de defectare este n
X
r(t) = ri (t).
i=1
Legare ı̂n paralel. Un dispozitiv are n componente legate ı̂n paralel, dacă acesta
poate funcţiona, chiar dacă una din componente se defectează.
Sistemul nu funcţionează dacă fiecare din componente nu funcţionează; presupunem
că acestea se pot defecta independent una de alta. Atunci obţinem
n
\
{T < t} = {Ti < t}
i=1
Variabile aleatoare continue 149
Observăm că T = max{T1 , . . . , Tn }. În acest caz nu putem găsi o expresie simplă a ratei
de defectare a sistemului. În practică aceste moduri de alcătuire apar combinat.
Reprezentăm acest lucru ı̂n Figura 3.22.
{T > t} = ({T1 > t} ∩ {T3 > t}) ∪ ({T1 > t} ∩ {T4 > t}) ∪
−R1 (t)R2 (t)R4 (t) − R1 (t)R2 (t)R3 (t)R4 (t) + R1 (t)R2 (t)R3 (t)R4 (t) =
= 3R12 (t) − 2R13 (t).
150 Variabile aleatoare continue
PROBLEME PROPUSE
Problema 3.3 O variabilă aleatoare X are repartiţia Simpson sau ”legea triunghiului
isoscel” pe un interval (−a, a), a > 0.
Găsiţi
a. densitatea de probabilitate;
b. funcţia de repartiţie.
1 1
R: M [X] = , D2 [X] = 2 .
λ λ
Problema 3.5 Determinaţi media şi dispersia repartiţiei Laplace, cu densitatea de
λ
probabilitate f (x) = e−λ|x| , λ > 0, ∀x ∈ IR.
2
2
R: M [X] = 0, D2 [X] = 2 .
λ
Problema 3.6 Determinaţi media şi dispersia variabilei aleatoare repartizată uniform
pe intervalul (a, b).
a+b (a − b)2
R: M [X] = , D2 [X] = .
2 12
Problema 3.7 O variabilă aleatoare este repartizată normal N (m, σ 2 ). Să aproximăm
X pe un interval (α, β) cu legea uniformă, dacă m, σ rămân constanţi.
Soluţie. Folosim problema precedentă şi egalăm mediile şi abaterile medii pătratice
α+β β−α
= m, √ =σ
2 2 3
√ √
de unde α = m − σ 3, β = m + σ 3.
Problema 3.8 O variabilă aleatoare X : N (m, σ 2 ) poate avea parametrii m = 2, σ = 2
cu probabilitatea 0,4 sau m = 2, σ = 1 cu probabilitatea 0,6 determinaţi densitatea de
probabilitate.
Soluţie . Folosim generalizarea formulei probabilităţii totale, din 3.2. Avem
0, 4 (x−2)2 0, 6 (x−2)2
f (x) = √ e− 8 + √ e− 2 .
2 2π 2π
Problema 3.9 Într-o secţie se produc articole care corespund calitativ, dacă satisfac o
anumită proprietate măsurabilă printr-o caracteristică numerică. Se observă unele deviaţii
152 Variabile aleatoare continue
şi găsim
2αn+1 1 Γ( n+2
2
)
a= n+1 , α = n+1 .
Γ( 2 ) m Γ( 2 )
Deoarece Θ = T − τ , rezultă
f (t)
Rτ , t > 0,
1 − 0 f (t)dt
φ(t) =
0, t < 0.
Prin derivare
0 νe−ν(t−t0 ) , t > t0
F (t) = fT (t − t0 ) = .
0, t<0
Atunci P ({Z > 2t0 }) = e−νt0 .
Problema 3.15 Timpul T ı̂ntre două defecţiuni ale unui calculator, urmează o lege
exponenţială cu parametru λ. Rezolvarea unei anumite probleme necesită funcţionarea
fără defecţiuni a componentelor pentru un timp τ ; dacă o defecţiune apare ı̂n timpul
rezolvării, problema poate fi reluată. Fie Θ variabila aleatoare care reprezintă intervalul
de timp ı̂n care problema va fi rezolvată. Să determinăm repartiţia şi media variabilei
aleatoare Θ.
Soluţie. Dacă problema a fost rezolvată ı̂n intervalul τ , ı̂nseamnă că T > τ şi R(τ ) =
P ({T > τ }) = e−τ λ , pe care o notăm p. Evenimentul contrar se produce cu probabilitatea
1 − p. Dacă problema a fost rezolvată ı̂n intervalul ((n − 1)τ, nτ ), aceasta ı̂nseamnă că au
survenit defecţiuni ale calculatorului ı̂n intervalele (0, τ ), (τ, 2τ ), . . . ((n − 2)τ, (n − 1)τ )
şi aceasta se ı̂ntâmplă cu probabilitatea p(1 − p)n−1 . Variabila căutată este
nτ
Θ:
p(1 − p)n−1
τ
care are media .
p
Problema 3.16 Durata vieţii unui circuit integrat normal este dată de o lege ex-
ponenţială cu rata α, iar a unui circuit rebut 1000α. Probabilitatea de a extrage un
154 Variabile aleatoare continue
circuit integrat normal dintr-un lot este p. Găsiţi probabilitatea ca alegı̂nd un circuit la
ı̂ntâmplare, acesta să funcţioneze după t secunde. Presupunem că fiecare este testat t
secunde. Pentru ce valoare a lui t, 99% dintre circuite sunt bune.
Soluţie . Fie B evenimentul de a ”alege un circuit normal”, R de a ”alege un circuit
rebut”, iar C de a ”alege un circuit care să funcţioneze după t secunde”. Are loc, dacă
folosim formula probabilităţii totale
Calculăm PC (B) cu formula lui Bayes şi din condiţia PC (B) = 0, 99, avem
1 (1 − p)99
t= ln .
999α p
Problema 3.17 Variabila aleatoare (X, Y ) are densitatea de probabilitate f (x, y). Ex-
primaţi probabilităţile următoarelor evenimente: 1.{X > Y }, 2.{X > |Y |}
3.{|X| > Y } 4.{Y − X > 1}.
Z +∞ Z +∞
Soluţie 1. P ({X > Y }) = dy f (x, y)dx;
−∞ y
Z +∞ Z x
2. P ({X > |Y |}) = dx f (x, y)dy;
0
Z 0 −x
Z −x Z +∞ Z x
3. P ({|X| > Y }) = dx f (x, y)dy + dx f (x, y)dy;
−∞ −∞
Z +∞ Z +∞ 0 −∞
dispersie.
Z +∞ Z +∞
x −λx
Soluţie. M [Y ] = e λe dx = λ e−(λ−1)x dx. Pentru λ > 1, există media
0 0
λ
egală cu . Pentru λ 6 1, integrala din definiţia mediei este divergentă. Pentru
λ−1
λ
λ > 2, M [Y 2 ] = şi deci există dispersie, iar dacă λ 6 2 aceasta nu există.
λ−2
Problema 3.19 Variabila aleatoare X are densitatea de probabilitate
1 π π
f (x) = cos x, x ∈ (− , );
2 2 2
calculaţi media şi dispersia variabilelor aleatoare X şi Y = | sin X|.
Z π
π2 1 2 1 1
2
Soluţie. M [X] = 0, D [X] = − 2, M [Y ] = | sin x| cos xdx = , D2 [Y ] = .
4 2 − π2 2 12
Problema 3.20 Variabilele aleatoare X şi Y au repartiţii exponenţiale
Problema 3.21 Variabila aleatoare (X, Y ) este repartizată constant ı̂n pătratul de
latură a, pe care ı̂l notăm D şi nulă ı̂n afară. Determinaţi f (x, y) şi F (x, y), funcţiile de
densitate marginale f1 (x), f2 (y). Stabiliţi dacă X şi Y sunt independente.
Soluţie.
1
2 , (x, y) ∈ D,
f (x, y) = a
0, (x, y) ∈/ D;
0, x 6 0 sau y 6 0,
xy
, 0 6 x 6 a, şi 0 6 y 6 a,
a2
y
F (x, y) = , x > a şi 0 < y 6 a,
a
x
, 0 < x 6 a şi y > a,
a
1, x > 0 şi y > a;
1 1
, x ∈ (0, a), , y ∈ (0, a)
fX (x) = a fY (y) = a
0, x ∈
/ (0, a); 0, y ∈
/ (0, a).
Problema 3.22 Funcţia f (x, y) este constantă ı̂n interiorul unui cerc de rază r şi
nulă ı̂n afară. Determinaţi raza r astfel ca f (x, y) să fie o densitate de probabilitate pen-
tru o variabilă aleatoare bidimensională (X, Y ), fX (x), fY (y), fX (x|y), fY (y|x). Calculaţi
Cov[X, Y ].
Soluţie. Căutăm densitatea de probabilitate de forma
h, x2 + y 2 < r2 ,
f (x, y) =
0, x2 + y 2 > r2 .
156 Variabile aleatoare continue
RR q
2 1
Punem condiţia ca 1 = f (x, y)dxdy = hπr . Deci r = πh
.
√ p
2h r2 − x2 , |x| < r, 2h r2 − y 2 , |y| < r,
fX (x) = fY (y) =
0, |x| > r; 0, |y| > r;
p
1
f (x, y) p , r2 − y 2 ,
|x| <
fX (x|y) = = 2 r2 − y 2 p
fY (y)
0, |x| > r2 − y 2 ;
1 √
f (x, y) √ 2 |y| < r2 − x2 ,
,
fY (y|x) = = 2 r − x2 √
fX (x) 0, |y| > r2 − x2 .
RR
Avem imediat M [X] = M [Y ] = 0, D[X] = D[Y ] = 2r . M [XY ] = xyf (x, y)dxdy = 0.
Deci Cov[X, Y ] = 0.
Problema 3.23 O variabilă aleatoare are densitatea de probabilitate constantă ı̂n
pătratul D din Figura 3.30.
Găsiţi f (x, y), fX (x), fY (y), fX (x|y), fY (y|x) şi stabiliţi dacă sunt independente; dar
corelate ?
Soluţie.
( 1
, (x, y) ∈ D, 1 − |x|, |x| < 1,
f (x, y) = 2 fX (x) =
0, (x, y) ∈/ D; 0, |x| > 1.
Analog
1 − |y|, |y| < 1,
fY (y) =
0, |y| > 1,
care sunt repartizate Simpson.
1
f (x, y) , |x| < 1 − |y|
fX (x|y) = = 2(1 − |y|)
fY (y) 0, |x| > 1 − |y|;
1
f (x, y) , |y| < 1 − |x|
fX (x|y) = = 2(1 − |x|)
fX (x) 0, |y| > 1 − |x|.
X şi RY nu sunt independente, dar nici corelate. M [X] = M [Y ] = 0, iar M [XY ] =
R +∞ +∞
−∞ −∞
xyf (x, y)dxdy = 0. Cov[X, Y ] = 0.
Problema 3.24 Variabila aleatoare (X, Y ) este uniform repartizată ı̂n interiorul unui
cerc de rază r = 1 cu interiorul D. Găsiţi media şi dispersia variabilei Z = XY .
Z Z Z Z
1 1 1
Soluţie. M [XY ] = 2
xydxdy = 0; D [XY ] = x2 y 2 dxdy = .
π D π D 8
Problema 3.25 O variabilă aleatoare (X, Y ) este uniform repartizată ı̂ntr-un pătrat
de latură 1. Găsiţi media şi dispersia variabilei XY .
Variabile aleatoare continue 157
1
Soluţie. Pentru că X şi Y sunt independente M [XY ] = M (X)M (Y ) = ; D2 [XY ] =
4
1
.
144
2
Problema 3.26 Variabilele X şi Y sunt legate prin Y = 2 − 3X şi mx = −1, DX = 4.
2
Găsiţi my , DY , Cov[X, Y ], ρ[X, Y ].
R: M [Y ] = M [2 − 3X] = 2 − 3(−1) = 5;D2 [Y ] = (−3)2 4 = 36. Din M [X 2 ] =
D2 [X] + M 2 [X], deducem M [X 2 ] = 5 Cov[X, Y ] = M [X(2 − 3X]) + 1 × 5 = −12
−12
ρ[X, Y ] = = −1.
D[X]D[Y ]
Problema 3.27 Variabilele aleatoare X, Y, Z au mediile mx , my , mz şi matricea de
covarianţă
D[ X] Cov[X, Y ] Cov[X, Z]
Cov[X, Y ] D [
Y ] Cov[Y, Z] .
[
Cov[X, Z] Cov[Y, Z] D Z]
Găsiţi media şi dispersia variabilei U = aX − bY + cZ − d, a, b, c, d ∈ IR.
R: M [U ] = a mx − b my + c mz − d, D2 [U ] = a2 D[ X] + b2 D[ Y ] + c2 D2 [Z] −
2 a b Cov[X, Y ] + 2 a c Cov[X, Z] − 2 b c Cov[Y, Z].
Problema 3.28 X, Y sunt variabile aleatoare independente X : N (1, 4), Y : U (0, 2).
Găsiţi M [X + Y ], M [XY ], M [X 2 ], M [X − Y 2 ], D2 [X + Y ], D2 [X − Y ].
R: M [X + Y ] = 2, M [XY ] = M [X]M [Y ] = 1, M [X 2 ] = 5, M [X − Y 2 ] =
1 13
− , D2 [(X + Y )] = D2 [(X − Y )] = .
3 3
Problema 3.29 Densitatea de probabilitate a unei variabile aleatoare bidimensionale
normale este
1 − 1.281
((x−2)2 −1,2(x−2)(y+3)+(y+3)2 ) .
f (x, y) = e
1, 6π
Calculaţi covarianţa variabilelor marginale.
R: Cov[X, Y ] = 0, 6.
Problema 3.30 Un voltmetru ı̂nregistrează cea mai mare dintre două tensiuni V1 , V2 .
Variabilele V1 , V2 sunt independente şi au aceeaşi densitate f (v). Găsiţi media variabilei
V = max{V1 , V2 }.
Z +∞ Z v1 Z +∞ Z v2
Soluţie. m = x1 dv1 f (v2 )dv2 + v2 f (v2 )dv2 f (v1 )dx1 .
−∞ −∞ −∞ −∞
158 Variabile aleatoare continue
Capitolul 4
Baza teoretică a statisticii matematice, care conferă garanţii asupra valabilităţii stu-
diului statistic al fenomenelor aleatoare, se sprijină pe proprietăţile de convergenţă ale
şirurilor de variabile aleatoare. Prezentăm principalele tipuri de convergenţă şi unele
proprietăţi ale şirurilor de variabile aleatoare referitoare la acestea.
sau, echivalent,
∀ε > 0 : lim P ({e ∈ E | |Xn (e) − X(e) | 6 ε}) = 1. (4.2)
n→∞
Observaţia 4.1.1 Se poate defini şi convergenţa ı̂n probabilitate a şirului de variabile
aleatoare {Xn }n∈IN către constanta c deoarece orice constantă este un caz particular de
variabilă aleatoare.
159
160 Probleme la limită
de aici rezultă
ε ε
{ | X − Y | > ε} ⊆ { | X − Xn | > } ∪ { | Xn − Y | > },
2 2
deci
ε
P ({ | X − Y | > ε} 6 P ({ | X − Xn | > })+
2
ε
+P ({ | Xn − X | > }).
2
prob prob
Deoarece {Xn } −→ X şi {Xn } −→ Y rezultă, trecând la limită,
ε
0 6 P ({ | X − Y | > ε}) 6 lim P ({ | X − Xn | > })+
n→∞ 2
ε
+ lim P ({ | Xn − Y | > }) = 0
n→∞ 2
deci P ({| X − Y | > ε}) = 0.
Demonstraţie. Fie ε > 0. Urmând un raţionament analog cu cel folosit ı̂n proprietatea
precedentă, putem scrie
ε ε
6 P ({|a||Xn − X| > }) + P ({|b||Yn − Y | > }).
2 2
prob prob
Ţinând seama că {Xn } −→ X şi {Yn } −→ Y şi trecând la limită obţinem
prob
adică {aXn + bYn } −→ aX + bY .
Teorema 4.2.1 Fie (Yn )n∈IN un şir de variabile aleatoare admiţând valori medii şi dis-
persii finite şi fie
M [Yn ] = Mn < ∞, D2 [Yn ] = σn2 < ∞.
Dacă există o constantă M astfel ı̂ncât
lim Mn = M şi lim σn2 = 0, (4.3)
n→∞ n→∞
atunci
prob
{Yn } −→ M.
Demonstraţie. Observăm că pentru orice ε > 0
ε ε
{|Yn − M | > ε} ⊆ {|Yn − Mn | > } ∪ {|Mn − M | > }.
2 2
Putem scrie
ε ε
P ({|Yn − M | > ε}) 6 P ({|Yn − Mn | > }) + P ({|Mn − M | > }). (4.4)
2 2
Aplicând inegalitatea lui Cebâşev variabilei aleatoare Yn obţinem
D2 [Yn ] σn2
P ({|Yn − Mn | > ε}) 6 = . (4.5)
ε2 ε2
Deorece lim Mn = M rezultă că ∀ε > 0, ∃ N (ε) ∈ IN astfel ı̂ncât ∀n > N (ε) inegalitatea
n→∞
ε
|Mn − M | > devine imposibilă, adică
2
∀n > N (ε) : P ({|Mn − M | > ε}) = 0.
Trecând la limită ı̂n (4.4), ţinând seama de (4.5) şi de ipotezele (4.3) rezultă
lim P ({|Yn − M | > ε}) = 0.
n→∞
Demonstraţie. Demonstrăm teorema lui Bernoulli sub cea de-a doua formă. Notăm
n
1X
Yn = Xk
n k=1
deci lim M [Yn ] = p şi lim D2 [Yn ] = 0, ceea ce arată că ipotezele Teoremei 4.2.1 sunt
n→∞ n→∞
n
1X prob
satisfăcute, deci { Xk } −→ p.
n k=1
Observaţii.
2. Cele două formulări decurg una din cealaltă dacă ţinem seama că frecvenţa absolută
de realizare a lui A ı̂n n probe. Fie Xn o variabilă aleatoare repartizată Bi(n, p).
Xn n
Sn 1X
Dacă notăm Sn = Xk , atunci = Xk şi deci
k=1
n n k=1
Sn
lim P ({| − p| > ε}) = 0
n→∞ n
ceea ce nu ı̂nseamnă altceva decât că
n
1X prob
{ Xk } −→ p.
n k=1
Teorema 4.2.3 (Cebâşev) Dacă (Xn )n∈IN este un şir de variabile aleatoare independente
două câte două, având dispersiile mărginite de o aceeaşi constantă
D2 [Xn ] 6 c2 , n ∈ IN,
Probleme la limită 163
atunci
n n
1X 1X
∀ε > 0 : lim P ({| Xk − M [Xk ]| > ε}) = 0
n→∞ n k=1 n k=1
sau, echivalent,
n n
1X 1X
∀ε > 0 : lim P ({| Xk − M [Xk ]| 6 ε}) = 1,
n→∞ n k=1 n k=1
n
1X
Demonstraţie. Dacă Yn = (Xk − M [Xk ]) atunci
n k=1
n n n
1X 1X 1X
M [Yn ] = M [ (Xk − M [Xk ])] = M [Xk ] − M [Xk ] = 0
n k=1 n k=1 n k=1
şi deoarece variabilele aleatoare Xn sunt independente două câte două, rezultă (Xk − M [Xk ])
sunt independente două câte două şi deci
n n n
1X 1 X 2 1X 2
D2 [Yn ] = D2 [ (Xk − M [Xk ])] = 2 D [Xk − M [Xk ]] = D [Xk ].
n k=1 n k=1 n k=1
Aplicând inegalitatea lui Cebâşev variabilei aleatoare Yn şi ţinând seama de ipotezele
problemei, putem scrie
n n n
1X 1X 1 X 2 nc2 c2
P ({| Xk − M [Xk ]| > ε}) 6 2 2 D [Xk ] < 2 2 = 2
n k=1 n k=1 n ε k=1 nε nε
şi deci
n n
1X 1X c2
lim P ({| Xk − M [Xk ]| > ε}) 6 lim = 0.
n→∞ n k=1 n k=1 n→∞ nε2
Observaţia 4.2.1 În cazul particular când variabilele aleatoare sunt independente, condi-
ţia din enunţ se scrie:
Xn
D2 [Xi ]
i=1
→ 0, n → ∞.
n
Teorema 4.2.5 (Hincin) Dacă {Xn }n∈IN este un şir de variabile aleatoare independente
două câte două urmând aceeaşi repartiţie şi având dispersii finite, atunci
n
1X
lim P ({| Xk − M | > ε}) = 0.
n→∞ n k=1
Problema care se pune este de a găsi o altă funcţie h(n) care să constituie o bună
aproximare ı̂n pentru n! (o bună aproximare ı̂n sensul că n! şi h(n) să crească aproape la
n!
fel de repede odată cu n, sau |n! − h(n)| să fie mic când n creşte sau lim = 1).
n→∞ h(n)
Definiţia 4.3.1 Fie f, g : IR → IR. Spunem că f şi g sunt asimptotic egale şi notăm
f ∼ g dacă
f (n)
lim = 1.
n→∞ g(n)
Relaţia ”f şi g sunt asimptotic egale ” este o relaţie de echivalenţă pe mulţimea funcţiilor
neidentic nule. Proprietăţile de reflexivitate, simetrie şi tranzitivitate rezultă imediat.
De exemplu, un polinom ı̂n variabila n este asimptotic egal cu termenul său dominant.
În cele ce urmează vom ı̂ncerca să găsim o funcţie h(n) astfel ı̂ncât
n!
lim = 1.
n→∞ h(n)
Expresia unei astfel de funcţii este sugerată de formula lui Stirling (vezi Anexa 2)
n √ √
h(n) = ( )n n 2π.
e
Pare mai neplăcut să calculăm h(n) decât n!, dar este mult mai uşor deoarece puterile
sunt mai lesne de calculat. Să aplicăm ı̂n cazul exemplului dat
50 1 100! 1
p = C100 = ,
200 50!50! 2100
√ √
( 100
e
)100 100 2π 1 100 100 10 1 2100 1
p∼ = ( ) √ = √ =
( 50
e
)100 50 2π 2100 50 50 2π 2100 5 2π 2100
1
= √ = 0, 0797884 ≈ 0, 08.
5 2π
Teorema 4.3.1 (teorema locală Moivre-Laplace).
Presupunem 0 < p < 1 şi q = 1 − p iar
k − np
xn,k = √ , 0 6 k 6 n. (4.6)
npq
Dacă M o constantă pozitivă arbitrară fixată, atunci pentru acei k pentru care
|xn,k | 6 M
avem 2
xn,k
1
Cnk pk q n−k ∼√ e− 2 . (4.7)
2πnpq
(Convergenţa este ı̂n raport cu n şi este uniformă relativ la k.)
Probleme la limită 167
Demonstraţie. Din
k − np
xn,k = √
npq
√ √
rezultă k = np + npq xn,k , adică n − k = nq − npqxn,k . Deoarece |xn,k | 6 M avem
√
k npq
=1+ xn,k → 1 şi deci k ∼ np,
np np√ (4.8)
n−k npq
=1− xn,k → 1 şi deci n − k ∼ nq.
nq nq
Folosind formula lui Stirling putem scrie
√ √ r
k k n−k ( ne )n n 2π k n−k n 1
Cn p q ∼ k √ √ √ √ p q ∼ √ ϕ(n, k),
k
( e ) k 2π( e ) n−k n−k
n − k 2π k(n − k) 2π
unde
nn np nq n−k
ϕ(n, k) =n n−k
pk q n−k = ( )k ( ) .
k (n − k) k n−k
Deoarece k ∼ np şi n − k ∼ nq rezultă că
1
Cnk pk q n−k ∼ √ ϕ(n, k).
2πnpq
Demonstrăm ı̂n continuare că
x2n,k
ϕ(n, k) ∼ e− 2 .
care ı̂n mod evident tinde la zero când n → ∞ datorită relaţiilor (4.8). Astfel, folosind
aceste relaţii, rezultă
n2 pq x2n,k
ln ϕ(n, k) ∼ xn,k = − .
2npnq 2
Aceasta este echivalentă cu
x2n,k
−
ϕ(n, k) ∼ e 2
şi de aici rezultă (4.7).
Observaţia 4.3.1 Aproximarea este utilizată dacă n este suficient de mare astfel ı̂ncât
np > 5 şi n(1 − p) > 5.
conform relaţiei (4.6). Atunci probabilitatea evenimentului din dreapta formulei (4.10)
este X X
P ({Sn = k}) = Cnk pk q n−k .
a<xn,k <b a<xn,k <b
obţinem
X 1 X − x2
P ({Sn = k}) ∼ e 2 (xn,k+1 − xn,k ). (4.11)
a<xn,k <b
K a<x <b n,k
Corespondenţa dintre krşi xn,k r este bijectivă şi atunci când k variază de la 0 la n, xn,k
np nq 1
variază ı̂n intervalul [− , ], nu continuu, cu pasul xn,k+1 − xn,k = √ . Pentru
q p npq
n suficient de mare intervalul va conţine [a, b) iar punctele xn,k vor fi ı̂n interiorul lui [a, b),
1
ı̂mpărţindu-l ı̂n intervale echidistante de lungime √ . Presupunem că cea mai mică şi
npq
cea mai mare valoare a lui k ce satisfac condiţiile a 6 xn,k < b sunt, respectiv, j şi l şi
deci vom avea
xj−1 < a < xj < xj+1 < . . . < xl−1 < xl < b < xl+1 ,
şi suma din (4.11) se poate scrie
l
X
ϕ(xn,k )(xn,k+1 − xn,k ),
k=j
unde
1 − x2
ϕ(x) = e 2
K
Rb
Aceasta este suma Riemann pentru integrala definită a ϕ(x)dx. Făcând n → ∞, di-
vizarea devine din ce ı̂n ce mai fină şi suma converge la integrala dată. Rămâne de
determinat constanta K. În formula
Z b
Sn − np 1 x2
lim P ({a 6 √ 6 b}) = √ e− 2 dx (4.12)
n→∞ npq 2π a
Dacă notăm
Sn − np
X= √ ,
npq
atunci
M [X] = 0, D2 [X] = 1
şi obţinem
Sn − np 1
P (| √ | 6 b) > 1 − 2 . (4.14)
npq b
Combinând relaţiile (4.13) şi (4.14) obţinem relaţia
Z b
1 1 x2
1− 2 6 e− 2 6 1
b K −b
Definiţia 4.4.1 Fie {Xn }n∈IN un şir de variabile aleatoare şi {Fn }n∈IN şirul funcţiilor
de repartiţie corespunzătoare. Dacă şirul funcţiilor de repartiţie {Fn }n∈IN converge către
o funcţie de repartiţie F ı̂n fiecare punct de continuitate x0 al funcţiei de repartiţie F
corspunzătoare variabilei aleatoare X, adică dacă
aatunci spunem că şirul {Xn }n∈IN converge ı̂n repartiţie către X şi se notează
rep
{Xn } −→ X.
Observatii.
1. Deoarece pot exista mai multe variabile aleatoare care au aceeaşi funcţie de repartiţie,
rezultă din definiţie că limita unui şir de variabile aleatoare convergent ı̂n repartiţie
nu este unică.
2. Un exemplu de astfel de convergenţă este următorul: dacă {Xn }n∈IN este un şir
de variabile aleatoare repartizată Bi(n, nλ ), atunci {Xn }n∈IN converge ı̂n repartiţie
către variabila aleatoare X repartizată Poisson de parametru λ. (Legătura ı̂ntre
repartiţia binomială şi repartiţia Poisson).
prob
Demonstraţie. Din definiţia convergenţei ı̂n probabilitate, {Xn } −→ X, rezultă că
Din
F (x0 − δ) = P ({X < x0 − δ}) = P ({X < x0 − δ} ∩ ({Xn < x0 } ∪ {Xn > x0 })) =
rezultă
F (x0 − δ) 6 lim Fn (x0 ).
n→∞
Analog
F (x0 + δ) > lim Fn (x).
n→∞
Rezultă
lim Fn (x0 ) = F (x0 ).
n→∞
rep prob
Teorema 4.4.3 Dacă C este o constantă reală şi dacă {Xn } −→ C, atunci {Xn } −→ C.
F (c + α) − F (c − α) = 1,
deci
P ({|Xn − c| > ε}) 6 F (c + α) − F (c − α) − Fn (c + ε) + Fn (c − ε + 0).
Dar c + ε şi c − ε + 0 sunt puncte de continuitate ale lui F şi, prin ipoteză, lim Fn (x)
n→∞
= F (x) pentru orice punct de continuitate x a lui F , deci
lim Fn (c + ε) = F (c + ε),
n→∞
lim Fn (c − ε + 0) = F (c − ε + 0) = F (c − ε),
n→∞
şi deci
lim P ({|Xn − C| > ε}) = 0
n→∞
Sn = X1 + X2 + . . . + Xn , n > 1,
Sn∗ este o variabilă aleatoare şi se numeşte variabilă aleatoare normalizată. Avem pentru
fiecare j şi n
M [Xj∗ ] = 0, D2 [Xj∗ ] = 1.
M [Sn∗ ] = 0, D2 [Sn∗ ] = 1.
Transformarea liniară care duce Xj ı̂n Xj∗ sau Sn ı̂n Sn∗ are ca scop aducerea lor la o
variabilă aleatoare cu media 0 şi dispersia 1. Fiecare Sn∗ este o variabilă aleatoare care ia
ca valori
k − np
xn,k = √ .
npq
Aceasta este tocmai xn,k din Teorema Moivre-Laplace şi
P ({Sn∗ = xn,k }) = Cnk pk q n−k , 0 6 k 6 n.
Dacă utilizăm funcţia de repartiţie corespunzătoare
P ({Sn∗ < x}) = Fn (x),
iar dacă F este funcţia de repartiţie normală standard, atunci teorema Moivre-Laplace se
poate scrie sub o formă mai elegantă şi anume
lim Fn (x) = F (x).
n→∞
Observaţie. Teorema poate fi extinsă ı̂n următorul sens: fie {Xn }n∈IN un şir de
variabile aleatoare independente având aceeaşi repartiţie care nu trebuie să fie specificată.
Trebuie, ı̂n schimb, ca M [Xj ] = m < ∞ şi D2 [Xj ] = σ 2 < ∞. Teorema lui Laplace are
loc şi ı̂n aceste condiţii.
Teorema 4.4.4 Pentru sumele Sn ı̂n condiţiile generalizate de mai sus şi pentru a < b
are loc Z b
Sn − nm 1 x2
lim P ({a < √ 6 b}) = √ e− 2 dx. (4.16)
n→∞ σ n 2π a
Există ı̂nsă o situaţie ı̂n care teorema limită centrală are o demonstraţie banală. Este
cazul ı̂n care variabilele aleatoare {Xn }n∈IN sunt normale şi independente. Atunci Sn =
X1 + X2 + . . . + Xn este tot o variabilă aleatoare normală cu media nm şi dispersia nσ 2
conform Teoremei 3.6.2.
Exemplul 4.4.1 Determinarea volumului unei selecţii bernoulliene care să permită apli-
carea legii numerelor mari.
Legea numerelor mari (Teorema 4.2.2) afirmă că
lim P ({|fn (A) − p| > ε}) = 0,
n→∞
unde fn (A) este frecvenţa relativă de realizare a evenimentului A ı̂n primele n probe
independente.
k Sn
fn (A) = = unde Sn = X1 + X2 + . . . + Xn , Xi : Bi(n, p), i = 1, n,
n n
174 Probleme la limită
Sn Sn pq
M[ ] = p, D2 [ ] = ,
n n n
Sn D2 [ Snn ] pq
P ({| − p|}) > 1 − 2
= 1 − 2,
n ε nε
Sn pq
P ({| − p| > ε}) < 2 < δ,
n nε
δ fiind dat, relaţia ne permite să determinăm o margine inferioară pentru volumul selecţiei
n, deoarece
pq pq pq 1
2
< δ implică n > 2 şi max 2 = ,
nε δε p δε 4δε2
adică
1
n> .
4δε2
Această margine inferioară este mai mult decât este necesar pentru a putea aplica Teorema
Moivre-Laplace.
Sn Sn − np
P ({| − p| > ε}) = P ({| | > ε}) =
n n
r r
Sn − np n Sn − np n
= P ({| √ |>ε }) = 1 − P ({| √ |6ε }) =
npq pq npq pq
r r r r
n n n n
= 1 − [F (ε ) − F (−ε )] = 1 − 0, 5 − Φ(ε ) + 0, 5 − Φ(ε )
pq pq pq pq
r
n
= 1 − 2Φ(ε )<δ
pq
r
n
Notăm z = ε ; problema este să se determine z astfel ı̂ncât 1 − 2Φ(z) < δ adica
pq
r
1−δ 1−δ n
Φ(z) = . Determinăm z0 din relaţia Φ(z0 ) = şi n astfel ı̂ncât ε = z.
2 2 pq
z 2 pq z 2 pq z2
Rezultă n = 2 şi deci max 2 = 2 , adică
ε ε 4ε
z2
n> .
4ε2
1
n> = 125000.
4 × 0, 05 × (0, 02)2
1 − 0, 05
Folosind Teorema lui Moivre-Laplace, Φ(z) = = 0, 475, adică z > 1, 96 şi deci
2
(1, 96)2
n> = 2401.
4(0, 02)2
Probleme la limită 175
Exemplul 4.4.2 O tensiune constantă, dar necunoscută, trebuie să fie măsurată. Fieca-
re măsurătoare Xj se face cu o eroare Nj faţă de valoarea exactă v. Eroarea Nj are media
egală cu zero şi dispersia egală cu 1 microvolt.
Xj = v + Nj
Presupunem că eroarea este o variabilă aleatoare independentă. Câte măsurători sunt
necesare ca media măsurătorilor să fie cu cel mult ε = 1 mai mare decât valoarea exactă
cu o probabilitate de 0,99?
Fiecare măsurătoare Xj are v şi dispersia 1, astfel ı̂ncât folosind legea numerelor mari
obţinem:
1 1
1 − 2 = 1 − = 0, 99.
nε n
Aceasta implică n = 100. Astfel dacă repetăm măsurătorarea de 100 de ori şi calculăm
media ı̂n mod normal ı̂n 99% din situaţii media obţinută va diferi cu cel mult 1 microvolt
de valoarea exactă.
Fiind experienţe Bernoulli, media m = p şi dispersia D2 [X] = p(1 − p). Evident că
p(1 − p) 6 1/4 pentru 0 6 p 6 1. Atunci rezultă
D2 [X] 1
P (|fn (A) − p| > ε) 6 6 .
nε2 4nε2
Pentru ε = 0, 01 obţinem
1
1 − 0, 95 =
4nε2
Rezolvăm şi obţinem n = 50000. Această evaluare s-a obţinut utilizând inegalitatea lui
Cebâşev care dă nişte evaluări destul de grosiere. Vom obţine o altă evaluare utilizând
Sn
Teorema Moivre-Laplace. Deoarece fn (A) = obţinem:
n
r
Sn Sn − np n
P ({| − p| < ε}) = P ({| | < ε}) = 1 − 2Φ(ε )
n n p(1 − p)
Această probabilitate nu poate fi calculată deoarece
p p este necunoscut. Mai mult, deoarece
p(1 − p) 6 1/4pentru 0 6 p 6 1, avem p(1 − p) 6 1/2, deci Φ(x) descreşte când
argumentul creşte. √
P (|fn (A) − p| > ε) < 1 − 2Φ(2ε n)
√
Vrem ca probabilitatea de mai sus să fie egală√cu 0,95. Aceasta implică Φ(2ε n) =
(1 − 0, 95)/2 = 0, 25. Din tabele obţinem 2ε n = 1, 95. Rezolvând, obţinem n =
(0, 98)2 /ε2 = 9506.
176 Probleme la limită
Exemplul 4.4.4 Să se determine numărul minim de aruncări ale unei monede care să
asigure cel puţin cu o probabilitate de 0,9 ca diferenţa dintre frecvenţa relativă obţinută
şi probabilitatea de apariţie a unei feţe să fie mai mică ı̂n valoare absolută decât 0,2.
Exemplul 4.4.5 Un zar se aruncă de 1200 de ori. Să se determine probabilitatea minimă
ca numărul de apariţii ale feţei cu i puncte, i fixat, să fie cuprins ı̂ntre 150 şi 250. Dar
ı̂ntre 100 şi 250 ?
1
Constatăm că p = şi n = 1200. Deci
6
k 1 1 k 1
| − | < ε ⇐⇒ −ε< < +ε
1200 6 6 1200 6
echivalent cu
200 − 1200 × ε < k < 200 + 1200 × ε.
Să cercetăm dacă această situaţie este compatibilă cu datele problemei, adică dacă sis-
temul
200 − 1200ε = 150,
200 + 1200ε = 250,
50 1
are soluţie. Se obţine ε = = . ı̂n al doilea caz, sistemul devine
1200 24
200 − 1200ε = 100,
200 + 1200ε = 250,
Probleme la limită 177
1 1 1
şi este incompatibil, obţinând, din fiecare ecuaţie, ε1 = şi ε2 = . Pentru ε1 =
12 24 12
1
obţinem intervalul (100, 300), iar pentru ε2 = obţinem intervalul (150, 250). Cum
24
Sn Sn 1
P ({100 < < 250}) > P ({150 < < 250}) > 1 − ,
1200 1200 24
1
alegem ε = şi deci
24
1 1
δ= 2
= 1 = 0.12.
4ε n 4 242 1200
Deci, cu probabilitatea de cel puţin 0,88, numărul de apariţii ale unei feţe a zarului cu
i puncte este ı̂n intervalul (150, 250) dacă aruncăm zarul de 1200 ori. Pe de altă parte,
ţinând seama de regula celor 3σ de la repartiţia normală,
Sn − np
P ({−3 < √ 6 3}) = 0, 9973,
npq
ceea ce ı̂nseamnă că probabilitatea ca numărul de apariţii ale unei feţe a zarului să fie ı̂n
intervalul (161, 239) este de 0.9973. Se poate calcula exact probabilitatea ca numărul de
√
apariţii ale unei feţe să fie cuprins ı̂ntre 100 şi 250. Deorece np = 200 şi npq = 12, 91
obţinem
P ({100 < Sn < 250}) = P ({−100 < Sn − np < 50}) =
100 Sn − np 50
= P ({− < √ < }) =
12, 91 npq 12, 91
Sn − np
= P ({−7, 75 < √ < 3, 873}) = F (3, 873) − F (−7, 75)
npq
şi ţinând seama de Relaţia (3.14) din Capitolul 3,
Exemplul 4.4.6 Să se calculeze probabilitatea opririi simultane a trei maşini din zece
care lucrează independent ı̂ntr-o fabrică ı̂n cazul ı̂n care probabilitatea defectării unei
maşini este p = 0, 2.
Se cere probabilitatea
3
P10,3 = C10 (0, 2)3 (0, 8)7 = 0, 2.
178 Probleme la limită
3 − 10
x10,3 = q 3 = −0, 21
10 12 12
şi obţinem
1 (0,21)2
3
C10 (0, 2)3 (0, 8)7 ∼ q e− 2 ≈ 0, 246.
2π 12 12 10
1 (1,5)2
8
C25 (0, 2)8 (0, 8)17 ∼ √ e− 2 = 0, 06475.
2π × 0, 2 × 0, 8
Diferenţa
0, 06475 − 0, 06234 = 0, 00241
de ordinul miimilor este considerată satisfăcătoare din punct de vedere practic.
Exemplul 4.4.7 O centrală electrică trebuie să deservească o reţea de 10000 de becuri
medii. Probabilitatea aprinderii unui bec ı̂ntr-o noapte de iarnă, care constituie perioada
de vârf a consumului de energie electrică, este de 0,7. Să se facă analiza economică
necesară proiectării centralei.
• să construim centrala astfel ı̂ncât ı̂n orice moment cele 10000 de becuri să funcţio-
neze;
Fie X o variabilă aleatoare care ia ca valori numărul de becuri care pot fi aprinse ı̂ntr-o
noapte. Această variabilă aleatoare are o repartiţie binomială cu
2100 1 k2 − 1
P ({|X − M [X]| 6 k × 46}) > 1 − = 1 − = .
k 2 2100 k2 k2
Pentru k = 2 obţinem
3
P ({|X − 700| 6}) > = 0, 75.
4
Dacă centrala se construieşte pentru o capacitate de 7092 becuri atunci, cu o probabilitate
de cel puţin 0,75, funcţionarea ei este normală. Rezultatul nu este convenabil. La fel,
8
k = 3, P ({|X − 7000| 6 138}) > = 0, 89;
9
15
k = 4, P ({|X − 7000| 6 184}) > = 0, 94.
16
Dacă construim centrala pentru o capacitate de 7184 becuri medii atunci, cu probabilitatea
de cel puţin 0,94, funcţionarea va fi normală.
Să determinăm capacitatea centralei astfel ı̂ncât cu o probabilitate de
0,99 funcţionarea să fie normală. Folosim Teorema Moivre-Laplace cu a = −∞.
Sn − np
P ({ √ 6 b}) = 0, 999 = F (b) = 0, 5 + Φ(b)
npq
Exemplul 4.4.8 O fabrică are ı̂n stoc 1660 tone dintr-o materie primă. ştiind că zilnic se
consumă ı̂n medie 13,33 t cu abaterea 1,2 t, cu ce probabilitate această cantitate ajunge
pentru 4 luni.
Exemplul 4.4.9 O sursă radioactivă este modelată după o lege Poisson şi emite 30
particule/oră. Care este probabilitatea ca ı̂n 10 minute să fie emise cel mult 10 particule
?
10
X
Notăm X = Xi , unde Xi sunt variabile aleatoare repartizate Poisson şi indepen-
i=1
dente. Din condiţiile
10
X
λ = M [X] = M [Xi ] = nM [Xi ]
i=1
λ
şi deci M [Xi ] = şi
n
10
X
λ = D2 [X] = D2 [Xi ] = nD2 [Xi ],
i=1
λ
adică D2 [Xi ] = , unde λ este parametrul repartiţiei Poisson ce trebuie determinat din
n
1
condiţia λ = 30 6 = 5 particule/10 minute. După (4.16)
X − nλ 10 − λ 10 − 5
P ({X 6 10}) = P ({ √ q n 6 √ }) = 0, 5 + Φ( √ ) = 0, 98713.
n nλ λ 5
Demonstraţie. Fie M = sup |f (x)| şi fie a, b puncte de continuitate ale lui F ı̂ncât
x∈IR
Deoarece pe un interval ı̂nchis [a, b] orice funcţie continuă este şi uniform continuă, alegem
punctele de continuitate ale lui F , xk cu 0 6 k 6 s astfel ı̂ncât
şi
|f (x) − f (xk )| 6 ε, ∀x ∈ [xk , xk+1 ], 0 6 k 6 s − 1.
Introducem funcţia auxiliară de salturi fε definită astfel:
f (xk ), dacă xk 6 x < xk+1 ,
fε (x) = 0 6 k 6 s − 1.
0, dacă x < x0 , x > xs ,
Z s−1
X
lim fε (x)dFn (x) = lim f (xk )(Fn (xk+1 ) − F (xk )) =
n→∞ IR n→∞
k=0
s−1
X Z
= f (xk )(F (xk+1 ) − F (xk )) = fε (x)dF (x),
k=0 IR
deci Z Z
lim fε (x)dFn (x) = fε dF (x). (4.18)
n→∞ IR IR
182 Probleme la limită
De asemenea avem
Z Z a
|f (x) − fε (x)|dF (x) = |f (x) − fε (x)|dF (x)+
IR ∞
Z b Z ∞
+ |f (x) − fε (x)|dF (x) + |f (x) − fε (x)|dF (x) 6
a b
Z a Z b Z ∞
6 |f (x)|dF (x) + |f (x) − fε (x)|dF (x) + |f (x)|dF (x) 6
−∞ a b
Z a Z b Z ∞
6M dF (x) + |f (x) − fε (x)|dF (x) + M dF (x) =
−∞ a b
Să demonstrăm că {Fnk } → F ı̂n punctele sale de continuitate. Fie x0 un punct de
continuitate a lui F şi să alegem η > 0 ı̂ncât pentru |x − x0 | < η să avem
|F (x) − F (x0 )| < ε.
Introducem funcţiile auxiliare
1, dacă x 6 x0 − η,
x −x
0
f1 (x) = , dacă x0 − η 6 x 6 x0 ,
η
0, dacă x > x0 ,
1, dacă x 6 x0 ,
x0 − x
f2 (x) = 1− , dacă x0 6 x 6 x0 + η,
η
0, dacă x > x0 + η.
Avem, evident,
Z Z x0 −η
f1 (x)dF (x) > dF (x) = F (x0 − η) > F (x0 ) − ε,
IR −∞
Z Z x0 +η
f2 (x)dF (x) 6 dF (x) = F (x0 + η) 6 F (x0 ) + ε,
IR −∞
şi analog pentru Fnk
Z Z x
f1 (x)dFnk (x) 6 dFnk (x) = Fnk (x0 ),
IR −∞
Z Z x
f2 (x)dFnk (x) > dFnk (x) = Fnk (x0 ).
IR −∞
Pentru n suficient de mare, conform teoremei 4.4.1,
Z Z
| f1 (x)dFnk (x) − f1 (x)dF (x)| < ε,
IR IR
Z Z
| f2 (x)dFnk (x) − f2 (x)dF (x)| < ε.
IR IR
Din ultimele şase relaţii deducem
F (x0 ) − 2ε 6 Fnk (x0 ) 6 F (x0 ) + 2ε.
Deoarece ε > 0 este arbitrară rezultă
lim Fn (x0 ) = F (x0 ).
n→∞
184 Probleme la limită
Teorema 4.5.3 Dacă şirul {Fn } de funcţii de repartiţie converge ı̂n repartiţie către func-
ţia F ı̂n toate punctele de continuitate ale lui F , atunci şirul {ϕn } al funcţiilor caracteris-
tice corespunzătoare converge (uniform pe orice interval mărginit) la funcţia caracteristică
ϕ corespunzătoare lui F .
Demonstraţie. Deoarece
Z Z
ϕn (t) = eitx dFn (x) şi ϕ(t) = eitx dF (x)
IR IR
şi funcţia eitx este continuă şi mărginită pe IR. Conform Teoremei 4.5.2 rezultă
lim ϕn (t) = ϕ(t)
n→∞
Teorema 4.5.4 Dacă şirul {ϕn }n∈IN ∗ de funcţii caracteristice converge pentru orice t ∈ IR
la ϕ continuă pe IR, atunci şirul {Fn }n∈N ∗ de funcţii de repartiţie corespunzătoare con-
verge către o funcţie de repartiţie F ; ı̂n plus, ϕ este funcţia caracteristică corespunzătoare
lui F .
Demonstraţie. Din Teorema 4.5.1 există un subşir {Fnk }k∈IN ∗ care converge la o funcţie
F nedescrescătoare, continuă la stânga ı̂n toate punctele de continuitate ale lui F . Să
demonstrăm că F este o funcţie de repartiţie. Presupunem, prin absurd, că
F (−∞) > 0 F (+∞) < 1
şi
δ = F (+∞) − F (−∞) < 1.
Fie ε > 0 ales arbitrar astfel ı̂ncât ε < 1 − δ. Deoarece ϕn → ϕ şi ϕn (0) = 1, rezultă că
ϕ(0) = 1 şi deoarece ϕ este continuă pe IR putem lua τ > 0 suficient de mic ı̂ncât
Z τ
1 ε ε
| ϕ(t)dt| > 1 − > δ + . (4.21)
2τ −τ 2 2
4
De asemenea putem alege x0 > dacă K > 0 suficient de mare, ı̂ncât
τε
Z
ε
δk = Fnk (x0 ) − Fnk (−x0 ) = dFnk (x) < δ + , dacă k > K
|x|<x0 4
ceea ce este posibil deoarece Fnk este o funcţie de repartiţie. Deoarece ϕnk este o funcţie
caracteristică, Z τ Z Z τ
ϕnk (t)dt = [ eitx dt]dFnk (x).
−τ IR −τ
Z τ
Dar | eitx dt| 6 2τ deoarece |eitx | = 1, iar pe de altă parte, calculând efectiv această
−τ
integrală, Z τ
1 1 2
eitx = eitx |τ−τ = [eiτ x − e−iτ x ] = sin(τ x).
−τ ix ix x
Probleme la limită 185
Z τ
2
Deci, pentru |x| > x0 , ţinând seama de faptul că | sin(τ x) 6 1 avem eitx dt < .
−τ x0
Deci Z τ Z Z τ
| ϕnk x(t)dt| 6 | [ eitx dt]dFnk (x)|+
−τ 6
|x| x0 −τ
Z Z τ
2
+| [ eitx dt]dFnk (x)| < 2τ δk + .
x>x0 −τ x0
Împărţind prin 2τ
Z τ
1 1 ε 1 τε ε
| ϕnk (t)dt| < δk + <δ+ + <δ+ ,
2τ −τ τ x0 4 τ 4 2
Rămâne să demonstrăm că {Fn } converge ı̂n repartiţie către F . Să presupunem contrariul;
atunci există un subşir {Fnk } care converge ı̂n repartiţie către F ∗ 6= F , dar F ∗ este
o funcţie de repartiţie cu aceeaşi funcţie caracteristică, deci din Teorema de unicitate
Cap.III, Teorema 3.5.4 rezultă F ∗ ≡ F .
echivalent cu
P ({Xn → X}) = 0.
∞
[
Demonstraţie. Fie Arn = {e ∈ E, |Xn − X| > 1
r
} şi Bnr = Arn+k . Din faptul că
k=1
∞
X ∞
X 1
P (Bnr ) 6 P (Arn+k ) = P ({|Xl − X| > })
k=1 l=n+1
r
şi cum seria din (4.23) este convergentă, rezultă că restul seriei converge la zero şi deci
∞
X
S S S
Fie B r = B 1 B2 B3 . . . şi cum P (B) 6 P (B r ) rezultă, conform (4.24) că P (B) =
r=1
0, unde de fapt B este mulţimea evenimentelor pentru care Xn nu converge la X.
a.s. prob
Se poate demonstra că dacă {Xn }n∈IN −→ X atunci {Xn }n∈IN −→ X şi deci
rep
{Xn }n∈IN −→ X.
Un alt rezultat, datorat lui E. Borel, face parte din legea numerelor mari (forma tare)
şi reformulează, ı̂ntr-o manieră ı̂ntărită, afirmaţia conţinută ı̂n teorema lui Bernoulli.
Teorema 4.6.2 (Borel) Fie A un eveniment care are probabilitatea de realizare p = P (A)
Sn
ı̂ntr-un şir de probe independente şi fie frecvenţa relativă de realizare a evenimentului
n
A din n probe. Atunci are loc convergenţa aproape sigură a şirului frecvenţelor relative
Sn
către p.
n
Sn a.s.
−→ p.
n
Demonstraţie. Conform Teoremei 4.5.1 este suficient să arătăm că seria
∞
X Sn 1
P ({| − p| > }) (4.25)
n=1
n r
Teorema 4.7.1 Dacă şirul de variabile aleatoare {Xn }n∈IN converge ı̂n medie de ordinul
r către variabila aeatoare X atunci converge ı̂n probabilitate către X.
Demonstraţe. Folosim inegalitatea analogă inegalităţii lui Cebâşev, dar pentru momentul
centrat de ordin r, Relaţia (3.41):
M [|Xn − X|r ]
P ({|Xn − X| > ε}) 6
εr
rezultă că deoarece are loc (4.22) atunci
M [Xn ] = 0, n = 1, n
Xn n
1 2X1 2
D2 [Xn ] = M [Xn2 ] = k2 3 = < (1 + ln n).
k=1
3k 3 k=1 k 3
Pentru majorare am utilizat egalitatea:
1 1 1
1+ + + . . . + = ln n + C + εn , lim εn = 0
2 3 n n→∞
iar C este constanta lui Euler cu C ≈ 0.577. Vom aplica Teorema lui Markov:
n
X
n
D2 [Xi ]
1 2X i=1 1 2n
D [ Xi ] = < (1 + ln n),
n2 i=1
n2 n2 3
Probleme la limită 189
n
1 2X 2
2
D [ Xi ] < (1 + lnn) → 0, n → ∞.
n i=1
3n
Sn − 4500
P ({−0, 4020 6 √ 6 0, 3015}) = Φ(0, 3015) + Φ(0, 4020) = 0, 275.
2475
Problema 4.6 Probabiliatea ca un rezistor să nu fie la limita de toleranţă este 0,1.
S-au cumpaărat 1000 de rezistoare. Care este probabilitatea ca mai mult de 100 rezistoare
să nu fie la limita de toleranţă?
Sn − 100
Indicaţie. P ({1, 0541 6 √ 6 94, 9}) = 0, 0778
90
Problema 4.7 În cazul unui semnal luminos dirijat spre un detector fotoelectric,
numărul k de electroni emisi urmează o repartiţie Poisson cu media λ = 150. Un semnal
este detectat dacă emite mai mult de 140 de electroni. Care este probabilitatea ca semnalul
să fie pierdut?
140
X (150)k e−k
Indicaţie. Această probabilitate este p = . Fie X variabila aleatoare care
k=0
k!
ia ca valori numărul de electroni emisi. Calculăm
X − 150 140 − 150
P ({X 6 140}) = P ({ √ 6 √ }) = 0, 5 − Φ(0, 8165) = 0, 209.
150 150
Problema 4.8 Presupunem că numărul particulelor emise de o masă ı̂n t secunde este
o variabilă aleatoare Poisson cu media λt. Folosind inegalitatea lui Cebâşev să se obţină
o margine pentru probabilitatea ca |N (t)/t − λ| să nu depăşească ε.
Indicaţie. P (|N (t)/t − λ| > ε) 6 ελ2 t
190 Probleme la limită
Procese stochastice
In studiul unor probleme fizice sau tehnologice apar fenomene care se desfăşoară ı̂n
timp şi care se numesc procese. Să dăm câteva exemple.
1. În modelul atomului de hidrogen, datorat lui Bohr, electronul se poate plasa pe
una din orbitele admisibile; la un moment dat t, definim variabila aleatoare X(t), care ia
valoarea i, dacă electronul se găseşte pe orbita i.
2. Numărul de impulsuri care se produc ı̂n intervalul (0, t) la o centrală telefonică este
o variabilă aleatoare pe care o notăm X(t).
3. Dacă mişcarea unei particule depinde de circumstanţe ı̂ntâmplătoare, de exemplu
de ciocnirea cu alte particule, atunci ı̂n fiecare moment t, viteza V (t) sau poziţia X(t)
sunt variabile aleatoare.
4. Un semnal aleator este o undă electrică, sonoră etc. ce traversează un anumit mediu
la un moment dat şi pe care ı̂l notăm cu X(t). Un semnal poate fi condiţional determinist
dacă se cunoaşte expresia analitică a undei; de exemplu X(t) = sin(ωt + φ) , unde φ este
o variabilă aleatoare.
În fiecare din exemplele precedente se pune ı̂n evidenţă o familie de variabile aleatoare
{X(t)}, cu t ∈ T, T ⊂ IR, care defineşte un proces stochastic.
Ne ocupăm ı̂n detaliu de lanţuri cu un număr finit de valori. Fie S o mulţime finită,
ale cărei elemente le numim stări, numerotate ı̂ntr-un mod bine-definit şi care reprezintă
mulţimea tuturor valorilor pe care le pot lua variabilele aleatoare X(n). Vom nota X(n) =
Xn .
Presupunem cunoscute probabilităţile
pi = P ({X0 = i}), ∀i ∈ S,
191
192 Procese stochastice
Definiţia 5.1.2 Lanţul {Xn }, n ∈ IN se numeşte lanţ Markov dacă are loc
Egalitatea (5.1) este cunoscută sub numele de proprietatea Markov şi se interpretează
intuitiv prin aceea că lanţul păstrează asupra trecutului amintirea cea mai recentă, deci
trecutul este ı̂n ı̂ntregime rezumat ı̂n starea din ultimul moment cunoscut.
Se poate demonstra echivalenţa dintre condiţia (5.1) şi relaţia :
Propoziţia 5.1.1 Dacă {Xn }, n ∈ IN este un lanţ Markov, are loc următoarea formulă
de calcul:
n
Y
P ({Xn = in , . . . , X0 = i0 }) = pi0 P ({Xt = it }|{Xt−1 = it−1 }). (5.3)
t=1
Definiţia 5.1.4 Un lanţ Markov se numeşte omogen dacă p(t, it−1 , it ) nu depinde explicit
de t, deci are loc
p(t, it−1 , it ) = p(it−1 , it )
În caz contrar, procesul se numeşte neomogen.
Procese stochastice 193
Vom nota aceste probabilităţi cu pit−1 ,it . Pentru un lanţ Markov omogen, relaţia (5.3)
devine
Yn
P ({Xt = it , . . . X0 = i0 }) = pi0 pit−1 ,it . (5.4)
t=1
Propoziţia 5.1.2 Matricea de trecere a unui lanţ Markov omogen satisface relaţiile :
pX ij > 0, ∀i, j ∈ S
pij = 1, ∀i ∈ S .
j∈S
Demonstraţie.
[ Prima afirmaţie este evidentă. Pentru a doua să observăm că evenimentul
sigur E = {Xt+1 = j} şi că
j∈S
! !
[ X X
1=P {Xt+1 = j} |{Xt = i} = P ({Xt+1 = j}|{Xt = i}) = pij .
j∈S j∈S j∈S
atunci există un corp borelian şi un lanţ Markov omogen, cu mulţimea stărilor S, cu pi
probabilităţi iniţiale şi pij probabilităţi de trecere.
194 Procese stochastice
Exemplul 5.1.2 Intr-o urnă sunt a bile albe şi b bile negre. Se efectuează un şir infinit
de extrageri astfel ı̂ncât după fiecare extragere se pun ı̂napoi două bile de aceeaşi culoare
cu cea extrasă. Fie Xk numărul de bile la momentul k. Definim probabilităţile de trecere
i
1 − , dacă j = i,
a+b+k
P ({Xk+1 = j}|{Xk = i}) = i
, dacă j = i + 1,
a+b+k
0, dacă j 6= i, i + 1.
Numărul de bile din urnă la momentul k+1 depinde numai de numărul de bile din urnă
aflate la momentul k, nefiind necesar ı̂ntreg istoricul. Probabilităţile de trecere depind
efectiv de momentul ı̂n care s-a desfăşurat extracţia, deci e un lanţ Markov neomogen.
Demonstraţie. Vom demonstra prin inducţie. Observăm că pentru n = 1, găsim definiţia
probabilităţilor de trecere date de (5.5). Presupunem că (5.7) are loc pentru n ∈ IN şi să
determinăm
X
P ({Xn+1+m = j}|{Xm = i}) = P ({Xn+m+1 = j, Xn+m = k}|{Xm = i}),
k∈S
aceasta deoarece {Xn+m = k}, k ∈ S, formează un sistem complet de evenimente şi are
loc formula probabilităţii totale (vezi Exemplul 6.6, Capitolul 1). Aplicând ı̂n continuare
formula probabilităţii condiţionate şi proprietatea Markov, ultimul membru este
X
P ({Xn+1+m = j, Xn+m = k}|{Xm = i}) =
k∈S
Într-adevăr, la momentul n
!!
[
pi (n) = P ({Xn = i}) = P {Xn = i} ∩ {Xn−1 = j} =
j∈S
!
[ X
=P ({Xn = i} ∩ {Xn−1 = j}) = P ({Xn−1 = j})P ({Xn = i}|{Xn−1 = j})
j∈S j∈S
X
= pj (n − 1)pji .
j∈S
Exemplul 5.1.3 Un calculator poate fi privit ca un sistem S care se poate afla ı̂ntr-una
din următoarele stări:
S1 calculatorul funcţionează normal;
S2 calculatorul prezintă unele dereglări, dar poate executa programe;
S3 calculatorul prezintă unele dereglări şi rezolvă un număr limitat de probleme;
S4 calculatorul nu funcţionează.
La momentul iniţial calculatorul funcţionează, deci se află ı̂n starea S1 cu probabili-
tatea 1 şi se poate presupune că el trece ı̂n celelalte stări cu probabilităţile indicate de
următoarea schemă
Deci matricea de trecere este
0, 3 0, 4 0, 1 0, 2
0 0, 2 0, 5 0, 3
P =
0
.
0 0, 4 0, 6
0 0 0 1
Să determinăm probabilităţile stărilor la momentul n = 2. Deoarece la momentul iniţial
calculatorul funcţionează, probabilităţile iniţiale sunt
p1 = 1, p2 = p3 = p4 = 0.
şi
p1 (2) = 0, 09; p2 (2) = 0, 2; p3 (2) = 0, 27; p4 (2) = 0, 44.
Exemplul 5.1.4 Dacă avem un lanţ Markov omogen cu matricea de trecere P , să deter-
minăm
P ({X10 = l, X8 = k, X5 = j}|{X1 = i}).
Folosind formula probabilităţii unei intersecţii şi proprietatea Markov, avem
P ({X10 = l, X8 = k, X5 = j, X1 = i})
=
P ({X1 = i})
P ({X1 = i})P ({X5 = j}|{X1 = i})P ({X8 = k}|{X5 = j})P ({X10 = l}|{X8 = k})
= =
P ({X1 = i})
(4) (3) (2)
= pij pjk pkl .
198 Procese stochastice
b. cu bariere reflectante; dacă particula ajunge ı̂n 0 sau l, este ”reflectată” ı̂n 1,
respectiv l − 1. Matricea de trecere este
0 1 0 ... 0 0 0
q 0 p ... 0 0 0
P = ... ... ... ... ... ... ... .
0 0 0 ... q 0 p
0 0 0 ... 0 1 0
şi că există un loc de aşteptare pentru cel mult m clienţi, număr ı̂n care se include şi
clientul care este servit. Clienţii care ajung ı̂n staţie şi găsesc m clienţi, pleacă fără a fi
serviţi.
Fie Yn numărul de clienţi prezenţi la momentul n, ı̂n care se include şi clientul care este
servit. Yn este un lanţ Markov cu stările 0, 1, . . . m. Yn+1 este egal cu numărul clienţilor
la momentul n, mai puţin cel servit la momentul n (dacă există) plus numărul clienţilor
care sosesc ı̂n intervalul (n, n + 1), dacă rezultatul nu depăşeşte m şi este egal cu m ı̂n caz
contrar. Deci
Yn − 1 + Xn , dacă 1 6 Yn 6 m, 0 6 Xn 6 m + 1 − Yn ,
Yn+1 = Xn , dacă Yn = 0, 0 6 Xn 6 m − 1,
m, ı̂n rest.
Procese stochastice 199
Deoarece Yn+1 depinde doar de Yn , iar variabilele aleatoare Xn şi Yn sunt independente,
rezultă că Yn este un lanţ Markov. Să determinăm matricea de trecere. Notăm cu pm =
pm + pm−1 + . . .
p0j = P ({Yn+1 = j}|{Yn = 0)}
P ({Xn = j}) = pj , dacă 0 6 j 6 m − 1,
=
P ({Xn > m}) = pm , dacă j = m;
(Matricea are primele m linii identice). S-a folosit notaţia pl = pl + pl+1 + . . . , dacă
m < l 6 M.
Demonstraţie.
2. =⇒ 1. Afirmaţia este imediată; observăm că
X X (n)
p∞
j = lim pij = 1.
n→∞
j∈S j∈S
(s)
pij0 > 0, ∀i ∈ S.
(n)
Arătăm că pj este necrescător; ı̂ntr-adevăr folosind (5.6)
(n+1)
X (1) (n) (n)
X (1) (n)
pij = pil plj 6 pj pil = pj , ∀i ∈ S,
l∈S l∈S
deci
(n+1) (n)
pj 6 pj .
Analog rezultă că pj(n) este nedescrescător, deci
p(n+1)
j
> p(n)
j
.
(n)
Deoarece cele două şiruri sunt şi mărginite (1 > pj > p(n)
j
> 0) ele sunt convergente; să
notăm
(n)
p∞ ∞ (n)
j = lim pj , pj = lim pj .
n→∞ n→∞
Procese stochastice 201
(n) (n)
lim max |pij − plj | = 0.
n→∞ i,l∈S
rezultă X (s) X
(n) (n) (s) (n−s) (n−s)
pij − plj = (pir − plr )prj = uil (r)prj ,
r∈S r∈S
(s) (s)
unde am introdus notaţia uil = − Să notăm cu S + mulţimea acelor stări din S
pir plr .
−
pentru care uil (r) > 0 şi cu S mulţimea acelor stări din S pentru care uil (r) < 0. Avem
evident S = S + ∪ S − . Deoarece
X (s) X (s)
pir = plr = 1,
r∈S r∈S
rezultă că X X X
uil (r) = uil (r) + uil (r) = 0,
r∈S r∈S + r∈S −
deci X X
uil = |uil (r)|.
r∈S + r∈S −
i,l∈S
iar n
lim u[ s ] = 0.
n→∞
De aici rezultă că
(n)
pj = pj = lim pij
n→∞
şi această limită o notăm p∞
j .
Importanţa acestei teoreme este ı̂nsemnată, deoarece pe baza ei putem analiza stabi-
litatea ı̂n timp a unor procese aleatoare.
Exemplul 5.1.8 Considerăm următorul proces Markov: mulţimea stărilor are 3 elemente
şi dacă la un moment dat este luată o anumită stare, la momentul următor se trece ı̂n
oricare din celelalte două cu aceeaşi probabilitate. Matricea de trecere este evident
0 21 12
1
P = 2 0 2 . 1
1 1
2 2
0
Observăm că
1 1 1
2 4 4
P =
2 1
4
1
2
1
4
1 1 1
4 4 2
satisface condiţia 1 din teorema precedentă, pe care o vom numi condiţie de ergodicitate.
Fiind matrice simetrică ea admite valorile proprii reale λ1 = 1, λ2,3 = − 12 şi forma
diagonală
1 0 0
D = 0 − 21 0 .
0 0 − 21
Fie S matricea ortogonală de schimbare de bază, care are forma
1 1 1
√ √ √
3 2 6
√1 − √12 √1
S= 3 6 .
√1 0 √2
3 6
Procese stochastice 203
Mai sus s-a folosit faptul că Dn are pe diagonală puterea a n -a a elementelor de pe
diagonala lui D. Deci după un număr foarte mare de paşi se poate presupune că fiecare
stare este luată cu aceleaşi şanse.
Exemplul 5.1.9 Fie un lanţ Markov cu două stări şi diagrama asociată ı̂n Figura 5.3.
Obsevăm că matricea de tranziţie este de forma
1−α α
.
β 1−β
Să studiem comportarea la limită a matricei de tranziţie. Putem scrie
1 β α 1−α−β α −α
P = + .
α+β β α α+β −β β
Dacă cele două stări sunt luate iniţial cu probabilităţile p0 , 1 − p0 , se constată că pentru
β α
n → +∞ probabilităţile de stare sunt α+β , α+β . Deci după un număr foarte mare de paşi
probabilităţile nu depind de starea iniţială.
Procese Poisson.
În unele situaţii practice, făcând observaţii asupra unui eveniment aleator ne poate
interesa de câte ori s-a produs acesta ı̂ntr-un interval de timp ; de exemplu numărul de
impulsuri care apar la o centrală telefonică ı̂ntr-un interval de timp, numărul de ”clienţi”
care solicită un produs ı̂ntr-o ”staţie de deservire”, numărul de vehicule care traversează
un pod, etc. Pentru orice t ∈ IR, notăm cu X(t) numărul de produceri ale evenimentului
ı̂n intervalul (0, t); evident variabila aleatoare X(t) ia valori ı̂n IN . Facem următoarele
presupuneri:
1. observaţiile ı̂ncep la momentul iniţial t = 0, deci X(0) = 0;
2. pentru orice momente de timp 0 < t1 < t2 < t3 < t4 , variabilele aleatoare X(t2 ) −
X(t1 ) şi X(t4 ) − X(t3 ) sunt independente (proces cu creşteri independente);
3. repartiţia variabilei aleatoare X(t + s) − X(t), t > 0, s > 0, depinde doar de s,
lungimea intervalului şi nu de t;
4. probabilitatea ca un singur eveniment să se producă ı̂n intervalul (t, t + ∆t), pentru
∆t suficient de mic este aproximativ proporţională cu lungimea intervalului, deci de forma
λ∆t + o(∆t). Probabilitatea ca mai mult de un eveniment să se producă ı̂n intervalul
(t, t + ∆t) este o(∆t).(Prin o(∆t)s-a notat o cantitate ce depinde doar de ∆t ce satisface
o(∆t)
lim = 0.) Notăm pk (t) = P ({X(t) = k}). Fie ∆t suficient de mic; la momentul
∆t→0 ∆t
t + ∆t, X(t) ia valoarea k ı̂n următoarele două moduri:
a. X(t) = k şi nici un eveniment nu se produce ı̂n intervalul (t, t + ∆t);
b. X(t) = k − 1 şi un eveniment se produce ı̂n (t, t + ∆t).
Deoarece din ipoteza 2, variabilele aleatoare X(t + ∆t) − X(t) şi X(t) sunt indepen-
dente, probabilitatea evenimentului dat de a este pk (t)(1 − λ∆t), iar cea a evenimentului
dat de b este pk−1 (t)λ∆t şi cum evenimentele de la a şi b sunt independente
pk (t + ∆t) − pk (t)
= −λpk (t) + λpk−1 (t) k = 1, 2, 3 . . .
∆t
Când ∆t → 0, găsim ecuaţia diferenţială
(λt)j−i −λt
pij (t) = P ({j − i evenimente au loc ı̂n t secunde}) = e , j > i.
(j − i)!
Matricea P este 2 −λt
e−λt λte−λt (λt)2!e ...
P (t) =
0
.
e−λt
λte−λt
...
... ... ... ...
Exemplul 5.2.2 Doi clienţi ajung la o staţie ı̂ntr-o perioadă de două minute. Să de-
terminăm probabilitatea ca ambii să ajungă ı̂n primul minut. Timpii fiind repartizaţi
uniform şi independent, rezultă că probabilitatea este 14 .
P ({k semnale emise ı̂n (0, τ ) | n semnale emise ı̂n (0, t)}) =
P ({k semnale emise ı̂n (0, τ ) şi n − k semnale emise ı̂n (τ, t)})
= =
P ({n semnale emise ı̂n (0, t)})
e−λτ (λτ )k e−λ(t−τ ) (λ(t−τ ))n−k τ k
k! (n−k)! τ n−k
= (λt)n
= Cnk 1− .
e −λt t t
n!
P ({T (t) = 1}) = P ({T (t) = 1}|{T (0) = 1})P ({T (0) = 1})+
1
= (1 + e−2λt ).
2
1
P ({T (t) = 1}|{T (0) = −1}) = P (B) = (1 − e−2λt ).
2
1
Deoarece P ({T (0) = 1}) = P ({T (0) = −1}) = 2 , rezultă după ı̂nlocuiri că evenimentele
{T (t) = ±1} au probabilitatea 12 .
208 Procese stochastice
Procese de naştere-moarte.
Vom modela ı̂n continuare următoarea situaţie practică ce apare ı̂n teoria aşteptării.
Considerăm un sistem format dintr-un ”fir de aşteptare” formată din n ”clienţi” şi o
persoană care serveşte. Spunem că sistemul se află ı̂n starea Sn dacă sunt n ”clienţi” la
coadă, inclusiv cel servit (dacă există). Din starea Sn sunt posibile doar două tranziţii:
- la starea Sn−1 dacă un client a fost servit şi părăseşte coada;
- la starea Sn+1 dacă un client este ı̂ncă servit ı̂n timp ce un nou client se aşează la
coadă.
Considerăm un proces care descrie comportarea cozii ı̂n timp. La momentul t, dacă
sistemul precedent se află ı̂n starea Sn , vom nota X(t) = n. Se obţine astfel un proces
Markov. Facem următoarele ipoteze:
1. Dacă sistemul este ı̂n starea Sn , poate realiza tranziţii la Sn−1 sau la Sn+1 , n > 1
(de la S0 este posibilă doar S1 ).
2. Probabilitatea unei tranziţii Sn → Sn+1 ı̂ntr-un interval scurt ∆t este αn ∆t pa-
rametrul αn se numeşte parametru de ”naştere”şi facem ipoteza că depinde de starea
Sn .
3. Probabilitatea unei tranziţii Sn → Sn−1 ı̂ntr-un interval de lungime ∆t este βn ∆t
parametru βn se numeşte parametru de ”moarte”.
Probabilitatea ca ı̂n intervalul (t, t + ∆t) să aibă loc mai mult de o tranziţie este 0.
Sistemul se află ı̂n starea Sn la momentul t + ∆t ı̂n următoarele situaţii:
a. La momentul t se află ı̂n starea Sn şi nici o tranziţie nu are loc ı̂n intervalul (t, t+∆t)
cu probabilitatea (1 − αn ∆t)(1 − βn ∆t), care poate fi aproximată cu 1 − αn ∆t − βn ∆t.
b. Fiind ı̂n starea Sn−1 la momentul t are loc o tranziţie la starea Sn ı̂n intervalul
(t, t + ∆t) cu probabilitatea αn−1 ∆t.
c. La momentul t sistemul se află ı̂n starea Sn+1 şi o tranziţie la starea Sn are loc ı̂n
(t, t + ∆t) cu probabilitatea βn+1 ∆t.
Notăm Pn (t) = P ({ X(t) se află ı̂n starea Sn }) şi facem ipoteza că că Pn (t) este o
funcţie derivabilă cu derivată continuă. Atunci
Pn (t + ∆t) = Pn (t)(1 − αn ∆t − βn ∆t) + αn−1 ∆tPn−1 (t) + βn+1 ∆tPn+1 (t), n > 1,
Pn0 (t) = −(αn + βn )Pn (t) + αn−1 Pn−1 (t) + βn+1 Pn+1 (t), n > 1,
Vom da soluţii pentru aceste ecuaţii diferenţiale ı̂n cazul ı̂n care Pn (t) nu depinde de t; ı̂n
acest caz sistemul precedent devine
(αn + βn )Pn = αn−1 Pn−1 + βn+1 Pn+1 , n > 1,
α0 P0 = β1 P1 ,
şi se rezolvă prin recurenţă. Se obţine soluţia
α0
P1 = P0
β1
α0 α1
P2 = P0
β1 β2 .
..
.
α0 α1 . . . αn−1
Pn = P0
β1 β2 . . . β n
Deoarece sistemul trebuie să se afle ı̂ntr-o stare, suma probabilităţilor precedente trebuie
să fie 1, deci
α0 α0 α1
P0 1 + + + . . . = 1.
β1 β1 β2
Exemplul 5.2.5 Intr-o ”staţie” sosesc ”clienţi” după legea Poisson cu parametrul λ, iar
timpul de servire este o lege exponenţială cu parametrul pozitiv µ, 0 < λ < µ. Dacă este
aglomeraţie se formează o coadă, iar starea sistemului la momentul X(t) este un proces
de naştere -moarte cu parametrii αn = λ şi βn = µ. Particularizând ecuaţiile precedente
şi notând ρ = µλ găsim
λ
P1 = P0
µ
2
λ
P2 = P0 = ρ2 P0
µ .
..
. n
λ
Pn = P0 = ρn P0
µ
Punem condiţia
1
P0 (1 + ρ + ρ2 + . . .) = P0 = 1, ρ < 1.
1−ρ
De aici rezultă P0 = 1 − ρ. Deducem Pn = (1 − ρ)ρn , pentru n = 0, 1, . . ., care este re-
partiţia geometrică.Să particularizăm această situaţie. Pentru a evita aglomeraţia dintr-o
staţie de deservire, clienţii aşezaţi la coadă ar trebui să nu depăşească numărul 5, cu
probabilitatea 0,99. Sosirile au loc după o lege Poisson cu parametrul λ = 1, 5 clienţi pe
minut. Dacă deservirea se face după o lege exponenţială, cât de repede trebuiesc aceştia
serviţi ? Să determinăm deci µ.
Probabilitatea ca cel puţin 5 clienţi să fie la coadă este
∞
X λ
p= (1 − ρ)ρn = ρ5 ; ρ = .
n=5
µ
210 Procese stochastice
ρ5 6 0, 1
de unde găsim µ > 9, 12. Deci ar trebui serviţi cel puţin 10 clienţi ı̂n medie pe minut
pentru a evita aglomeraţia.
Definiţia 5.3.1 Numim funcţie de repartiţie n−dimensională funcţia dată prin formula
pentru orice t1 , . . . , tn , n ∈ IN .
F (x1 , . . . , xm , t1 , t2 , . . . , tm ) =
Legătura dintre cele două funcţii este imediată şi constă ı̂n
CovX (t1 , t2 )
ρX (t1 , t2 ) = p p .
CovX (t1 , t1 ) CovX (t2 , t2 )
Exemplul 5.3.2 Fie X(t) = A cos 2πt, unde A este o variabilă aleatoare. Să determinăm
valorile caracteristice.
RX (t1 , t2 ) = M [A cos 2πt1 A cos 2πt2 ] = M [A2 ] cos 2πt1 cos 2πt2 ;
CovX (t1 , t2 ) = RX (t1 , t2 ) − mX (t1 )mX (t2 ) = (M [A2 ] − M 2 [A]) cos 2πt1 cos 2πt2 =
Procese multiple.
Două procese X(t), Y (t) se numesc independente dacă ∀ k, j şi orice alegere t1 , . . . , tk şi
t01 , . . . t0j , variabilele aleatoare multidimensionale (X(t1 ), . . . , X(tk )) şi
0 0
(Y (t1 ), . . . Y (tj )) sunt independente. Corelaţia ı̂ncrucişată RXY (t1 , t2 ) este definită prin
RXY (t1 , t2 ) = M [X(t1 )Y (t2 )].
Procesele X(t) şi Y (t) se numesc ortogonale dacă
RXY (t1 , t2 ) = 0, ∀t1 , t2 .
Covarianţa ı̂ncrucişată CovXY (t1 , t2 ) este definită prin
CovXY (t1 , t2 ) = M [(X(t1 ) − mX (t1 ))(Y (t2 ) − mY (t2 ))] = RXY (t1 , t2 ) − mX (t1 )mY (t2 ).
Procesele se numesc necorelate dacă
CovXY (t1 , t2 ) = 0, ∀t1 , t2 .
Exemplul 5.3.3 Fie X(t) = cos(ωt + Θ) şi Y (t) = sin(ωt + Θ) unde Θ este o variabilă
aleatoare repartizată uniform pe [−π, +π]. Să determinăm covarianţa ı̂ncrucişată. Arătăm
că media procesului X(t) este 0.
Z π
1
mX (t) = M [cos(ωt + θ)] = cos(ωt + x)dx = 0.
2π −π
Analog rezultă că media procesului Y (t) este 0.
RXY (t1 , t2 ) = M [cos(ωt1 + Θ) sin(ωt2 + Θ)] =
1 1 1
= M [− sin(ω(t1 − t2 )) + sin(ω(t1 + t2 ) + 2Θ)] = − sin(ω(t1 − t2 ))
2 2 2
deoarece M [sin(ω(t1 + t2 ) + 2Θ)] = 0.
Definiţia 5.3.2 Procesul X(t) se numeşte staţionar ı̂n sens restrâns dacă ∀t1 , . . . , tn
∈ IR+ , n ∈ IN , u ∈ IR+ are loc
F (x1 , . . . xn , t1 + u, . . . , tn + u) = F (x1 , . . . , xn , t1 , . . . , tn ). (5.15)
Definiţia 5.3.3 Procesul X(t) este staţionar ı̂n sens larg dacă au loc condiţiile 1-3.
Definiţia 5.3.4 Numim funcţie de corelaţie a unui proces staţionar ı̂n sens larg coefi-
cientul de corelaţie al variabilelor aleatoare X(t) şi X(t + u).
R(u) = M [(X(u)X(0))].
Demonstraţie.
1. Din inegalitatea lui Cebâşev , rezultă
P ({|X(t + u) − X(t)| > ε}) = P ({|X(t + u) − X(t) − M [(X(t + u) − X(t))]| > ε}) 6
D2 [(X(t + u) − X(t))]
6 ,
ε
care din definiţia continuităţii tinde la 0, dacă u → 0.
2. Se observă imediat că
de unde afirmaţia 2.
3. Folosind inegalitatea lui Cauchy are loc
Demonstraţie. Să presupunem mai ı̂ntâi că R(u) este o funcţie de corelaţie pentru un proces
staţionar continuu. Din proprietatea precedentă R(u) rezultă continuă şi mărginită. Să
arătăm că este şi pozitiv definită. Pentru orice numere reale u1 , u2 , . . . , un din IR şi
η1 , . . . , ηn ∈ C unde n ∈ IN , are loc
n n X n
!
X X
0 6 M | ηk X 2 (uk )| = M ηi η j X(ui )X(uj ) =
k=1 i=1 j=1
n X
X n
= R(ui − uj )ηi η j .
i=1 j=1
unde F este o funcţie de repartiţie. Deoarece R este o funcţie reală, rezultă afirmaţia.
Reciproc, să arătăm că dacă
Z ∞
R(u) = cosux dF (x),
−∞
M [X(t1 )] = . . . = M [X(tn )] = 0,
Se verifică uşor că funcţiile de repartiţie asociate satisfac condiţiile de simetrie şi compa-
tibilitate, deci definesc un proces stochastic, care rezultă staţionar.
Procese stochastice 215
unde X(t), Y (t) sunt procese necorelate, deci M [XY ] = M [X)M [Y ] ce satisfac
M [X] = M [Y ] = 0, D2 [X] = D2 [Y ] = 1.
Să arătăm că Z(t) este un proces staţionar. Pentru aceasta să calculăm funcţia de corelaţie
n
X
unde b2k = 1, iar Zk (t) = Xk (t) cos λk t+Yk sin λk t, λk ∈ IR. Xk (t), Yk (t) sunt preocese
k=1
ce satisfac
M [Xk ] = M [Yk ] = 0, D2 [Xk ] = D2 [Yk ] = 1, k = 1, n
M [Xi Xj ] = M [Yi Yj ] = 0, i 6= j, M [Xi Yj ] = 0, i, j = 1, n.
Calculând funcţia de corelaţie, găsim
n
X
R(u) = b2k cos λk u,
k=1
de unde rezultă că procesul este staţionar, asociat funcţiei de repartiţie F care are salturi
de mărimea 21 b2k ı̂n punctele ±λk .
PROBLEME PROPUSE
Problema 4.1 Fie In procesul Bernoulli identic şi independent repartizat. Calculaţi
P ({I1 = 1, I2 = 0, I3 = 0, I4 = 1}).
R: p2 (1 − p)2 .
Problema 4.2 Fie Dn = 2In − 1 unde In este procesul din problema precedentă.
Calculaţi media şi dispersia.
Soluţie mX (n) = M [2In −1] = 2M [In ]−1 = 2p−1 D2 [Dn ] = D2 [2In −1] = 22 D2 [In ] =
4p(1 − p). Procesul reprezintă de fapt schimbarea poziţiei unei particule care se mişcă ı̂n
linie dreaptă făcı̂nd salturi de ±1 la fiecare unitate de timp.
Problema 4.3 Fie X un număr ales la ı̂ntı̂mplare din [0, 1] şi fie dezvoltarea lui ı̂n
+∞
X
baza 2, x = bn 2−n , bn ∈ {0, 1}. Definim Xn = bn , n ∈ IN . Calculaţi P ({X1 = 0}) şi
n=1
P ({X1 = 0, X2 = 1}).
Soluţie. X1 = 0, dacă 0 6 X 6 12 , deci cu probabilitatea 12 . Iar P ({X1 = 0, X2 = 1})
este 14 , deoarece 14 6 X 6 12 .
Problema 4.4 Un calculator este inspectat la momentele t1 , t2 , t3 şi se poate afla ı̂n
una din următoarele stări:
s1 funcţionează normal;
s2 are un număr neglijabil de erori, care nu impiedică calculatorul să funcţioneze;
s3 are erori considerabile, dar rezolvă limitat probleme;
s4 nu funcţionează.
La momentul iniţial calculatorul este ı̂n starea s1 iar matricea de tranziţie este
0, 5 0, 3 0, 2 0
0 0, 4 0, 4 0, 2
P = 0
.
0 0, 3 0, 7
0 0 0 1
Asociaţi diagrama şi aflaţi probabilităţile de stare după fiecare din cele trei inspecţii.
Soluţie. Probabilităţile de stare iniţială sunt (1, 0, 0, 0), deoarece iniţial calculatorul
funcţionează. Apoi
Problema 4.8 Un proces Y (t) constă dintr-un semnal dorit X(t) la care se adaugă
zgomotul N (t), deci Y (t) = X(t) + N (t). Găsiţi corelaţia ı̂ncrucişată dintre cele două
procese, presupunı̂nd că X(t), N (t) sunt independente.
Soluţie Folosind independenţa variabilelor X(t) şi N (t), găsim
Problema 4.9 În ziua 0 există 2 becuri noi de rezervă. Probabilitatea de a schimba
un bec este p, iar probabilitatea de a nu schimba este q = 1 − p. Fie Yn numărul de becuri
necesar la sfârşitul zilei n. Determinaţi matricea de tranziţie după un pas şi după n paşi,
probabilităţile de stare la momentul n şi comportarea lor la limită.
Soluţie Stările procesului sunt 2,1,0, iar diagrama corespunzătoare este
Matricea de tranziţie cu un pas este
1 0 0
P = p 1−p 0
0 p 1−p
iar la limită se obţine (1 0 0). Interpretarea evidentă este că după un număr foarte mare
de paşi procesul devine ”staţionar” şi rămân 0 becuri de rezervă.
Index
Index
219