Sunteți pe pagina 1din 219

Ariadna Lucia Pletea

Liliana Popa

ILOR
TEORIA PROBABILITAT

GH. ASACHI,
UNIVERSITATEA TEHNICA
IASI 1999

Cuprins
Introducere

1 C
amp de probabilitate
1.1 Camp finit de evenimente . . . . .
1.2 Camp finit de probabilitate . . . .
1.3 Metode de numarare . . . . . . . .
1.4 Moduri de selectare a elementelor .
1.5 Definitia axiomatica a probabilitatii
1.6 Formule probabilistice . . . . . . .
1.7 Scheme clasice de probabilitate . .
1.8 Camp infinit de probabilitate . . .
1.9 Probleme propuse . . . . . . . . . .

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

2 Variabile aleatoare discrete


2.1 Definitia si clasificarea variabilelor aleatoare . . . . . . . .
2.2 Variabile aleatoare discrete simple . . . . . . . . . . . . . .
2.3 Exemple de variabile aleatoare discrete simple . . . . . . .
2.4 Variabile aleatoare discrete simple bidimensionale . . . . .
2.5 Variabile aleatoare cu un numar infinit numarabil de valori
2.6 Functia generatoare . . . . . . . . . . . . . . . . . . . . . .
2.7 Probleme propuse . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

3 Variabile aleatoare continue


3.1 Functia de repartitie a unei variabile aleatoare unidimensionale
3.2 Densitatea de probabilitate. Repartitia normala . . . . . . . .
3.3 Functia de repartitie multidimensionala. Transformari . . . . .
3.4 Valori caracteristice ale unei variabile aleatoare . . . . . . . .
3.5 Functia caracteristica a unei variabile aleatoare . . . . . . . .
3.6 Variabile aleatoare continue clasice si legaturile dintre ele . . .
3.7 Fiabilitate . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

7
7
11
16
17
18
20
26
29
36

.
.
.
.
.
.
.

43
43
44
61
65
68
74
75

.
.
.
.
.
.
.

81
81
88
95
108
117
126
143

4 Probleme la limit
a n teoria probabilit
atilor
155
4.1 Convergenta n probabilitate . . . . . . . . . . . . . . . . . . . . . . . . . . 155
4.2 Legea numerelor mari (forma slaba) . . . . . . . . . . . . . . . . . . . . . . 156
4.3 Aproximari pentru repartitii discrete . . . . . . . . . . . . . . . . . . . . . 161
3

4.4
4.5

Convergenta n repartitie. Teorema limita centrala . . . . . . . . . . . . .


Legatura dintre convergenta sirurilor functiilor de repartitie si convergenta
sirurilor functiilor caracteristice . . . . . . . . . . . . . . . . . . . . . . .
4.6 Convergenta aproape sigura . . . . . . . . . . . . . . . . . . . . . . . . .
4.7 Convergenta n medie . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.8 Probleme propuse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. 164
.
.
.
.

177
181
182
184

5 Procese stochastice
187
5.1 Lanturi Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
5.2 Procese Markov continue. Procese Poisson . . . . . . . . . . . . . . . . . . 200
5.3 Procese stochastice stationare . . . . . . . . . . . . . . . . . . . . . . . . . 206

Introducere
Numeroase probleme practice din variate domenii de activitate, ca: ingineria electrica,
radio, transmisia de date, calculatoare, teoria informatiei, fiabilitatea sistemelor si altele,
conduc la studiul unor fenomene si procese aleatoare. Evaluarea sanselor lor de producere
constituie obiectul disciplinei teoria probabilitatilor.
Cursul de Teoria probabilitatilor are atat un caracter informativ, furnizand studentilor notiuni si rezultate fundamentale cu care vor opera n cadrul specialitatilor lor, cat
si formativ, acomodandu-i cu rationamente matematice, dintre care unele vor fi necesare
prelucrarii pe calculator a datelor.
Cursul este alcatuit din cinci capitole.
Capitolul I, intitulat Camp de probabilitate introduce notiunea de camp de probabilitate, cadru n care se defineste axiomatic notiunea de probabilitate. Sunt trecute
n revista formule si scheme clasice de probabilitate. Elementele de teorie sunt nsotite
de exemple, dintre care unele cu referire la situatii tehnice privind controlul de calitate,
transmiterea informatiei etc.
Cuprinde paragrafele: 1.Camp finit de evenimente; 2.Camp finit de probabilitate;
3. Metode de numarare; 4.Moduri de selectare a elementelor; 5.Definitia axiomatica a
probabilitatii; 6.Formule probabilistice; 7.Scheme clasice de probabilitate; 8.Camp infinit
de probabilitate.
Capitolul II, intitulat Variabile aleatoare discretecuprinde paragrafele 1.Definitia
si clasificarea variabilelor aleatoare; 2.Variabile aleatoare discrete simple; 3.Exemple de
variabile aleatoare discrete simple; 4.Variabile aleatoare discrete simple bidimensionale;
5.Variabile aleatoare cu un numar infinit numarabil de valori.
Este scos n evidenta rolul distributiei Poisson, a evenimentelor rare n numeroase
aplicatii tehnice.
Capitolul III, intitulat Variabile aleatoare continue, cuprinde paragrafele: 1.Functia de repartitie a unei variabile aleatoare unidimnesionale; 2.Densitatea de probabilitate.Repartitia normala;3.Functia de repartitie multidimensionala.Transformari; 4.Valori caracteristice ale unei variabile aleatoare. 5.Functia caracteristica a unei variabile
aleatoare; 6.Variabile aleatoare continue clasice si legaturile dintre ele; 7.Fiabilitate.
Este scos n evidenta rolul legii lui Gauss n studiul erorilor accidentale de masurare.
Capitolul IV, intitulat Probleme la limita n teoria probabilitatilor, cuprinde paragrafele: 1.Convergenta n probabilitate a sirurilor de variabile aleatoare; 2.Legea numerelor mari (forma slaba); 3.Aproximari pentru distributii discrete; 4.Convergenta n
repartitie. Teorema limita centrala; 5.Legatura dintre convergenta functiilor de repartitie

si convergenta functiilor caracteristice; 6.Convergenta aproape sigura; 7.Convergenta n


medie.
Scopul acestui capitol este de a pune n evidenta justificari teoretice ale apropierii dintre anumite concepte din teoria probabilitatlor si din statistica matematica si de
asemenea, legaturile dintre diferitele tipuri de convergenta n teoria probabilitatilor.
Capitolul V, intitulat Procese stochastice, cuprinde paragrafele:1.Lanturi Markov;
2.Procese Markov contiue. Procese Poisson; 3.Procese stochastice stationare.
Pentru ntelegerea materialului din acest capitol, s-au dat numeroase exemple de
importanta practica din teoria asteptarii, teoria stocurilor si altele.
Capitolele I, II, IV au fost redactate de lector dr. Pletea Ariadna, iar Capitolele III si
V de lector dr. Popa Liliana, care au colaborat pentru a obtine o forma cat mai unitara
si moderna a cursului.
Adresam pe aceasta cale vii multumiri comisiei de analiza a cursului, formata din prof.
dr. Pavel Talpalaru, prof. dr. Stan Chirita si lector Gheorghe Florea pentru observatiile
constructive facute, cat si, anticipat, tuturor cititorilor, care vor contribui prin sugestii la
mbunatatirea prezentului material.
Autoarele

Capitolul 1
C
amp de probabilitate
1.1

C
amp finit de evenimente

In teoria probabilitatilor notiunile primare sunt: evenimentul si probabilitatea.


Teoria probabilitatilor studiaza experientele aleatoare, acele experiente care reproduse
de mai multe ori se desfasoara de fiecare data n mod diferit, rezultatul neputand fi
anticipat. Exemple de experiente aleatoare: aruncarea unui zar, tragerile la tinta, durata
de functionare a unei masini etc.
Rezultatele posibile ale unei experiente aleatoare se numesc probe sau cazuri posibile
ale expeientei.
Experientele se pot realiza printr-un numar finit sau un numar infinit de probe.
Multimea rezultatelor (cazurilor) posibile ale unei experiente aleatoare formeaza spatiu
de selectie.
Notam simbolic spatiul de selectie cu E.
Definitia 1.1.1 Se numeste eveniment o submultime a spatiului de selectie.
Orice element a lui E, notat e, este un punct de selectie sau un rezultat posibil al
experientei.
In cele ce urmeaza vom presupune E finit.
Exemplul 1.1.1 Consideram experienta care consta n aruncarea unui zar. Aceasta este
o experienta aleatoare. Multimea rezultatelor posibile ale experientei sunt 1, 2, 3, 4,
5, 6. Deci spatiul de selectie este E = {1, 2, 3, 4, 5, 6}. Presupunem ca ne intereseaza
evenimentul ca la o aruncare a zarului sa obtinem o fata cu un numar par de puncte.
Daca aruncand zarul am obtinut fata cu cinci puncte, aceasta este o proba a experientei
noastre, dar evenimentul care ne interesa (o fata cu un numar par de puncte) nu s-a
realizat. Daca proba experientei ar fi fata cu sase puncte, atunci evenimentul nostru s-a
realizat.
Exemplul dat este al unei experiente cu un numar finit de probe. Se pot da exemple si de
experiente cu o infinitate de probe. Astfel, experienta tragerii la tinta. Exista o infinitate
de probe care realizeaza evenimentul atingerii tintei.
7

mp de probabilitate
Ca

Notiunile de spatiu de selectie si de eveniment astfel introduse ne permit ca teoria


multimilor sa poata fi folosita n studiul evenimentelor aleatoare. Traducem n limbaj de
evenimente notiuni si simboluri caracteristice teoriei multimilor.
1. Drept submultime a lui E se poate considera E. Cum indiferent de rezultatul e al
experientei, e E, rezulta ca odata cu e se realizeaza E. Evenimentul E se numeste
eveniment cert (sau eveniment sigur).
De exemplu, la aruncarea zarului aparitia unei fete cu un numar de puncte mai mic
sau egal cu 6 este evenimentul sigur. Aparitia unei fete cu un numar mai mic sau
egal cu 4 de puncte este un eveniment nesigur, dar posibil.
2. Drept submultime a lui E putem considera multimea vida care nu se realizeaza la
nici o efectuare a experientei, motiv pentru care se numeste eveniment imposibil.
3. Fie evenimentul A, submultime a lui E. Evenimentul complementar lui A n raport
se numeste eveniment contrar evenimentului A. Acesta se realizeaza
cu E, notat A,
daca si numai daca nu se realizeaza evenimentul A.
In exemplul 1.1.1 evenimentul contrar evenimentului aparitiei unui numar par de
puncte este evenimentul care consta n aparitia unui numar impar de puncte. Astfel,
A = {2, 4, 6} si A = {1, 3, 5}.
4. Fie evenimentele A, B E. Evenimentul A implica evenimentul B (scris A B)
daca B se realizeaza prin toate probele lui A (si prin alte probe), adica daca (e
A) (e B).
5. Fie A, B E doua evenimente. Evenimentul AB este evenimentul a carui realizare
are loc daca se realizeaza sau A sau B.
6. Fie A, B E. Prin evenimentul A B ntelegem evenimentul care se realizeza daca
se realizeaza atat A cat si B.
7. Fie A, B E. Prin A \ B ntelegem evenimentul care se realizeaza prin probe ale

lui A si B.
Definitia 1.1.2 Fie A E, A = . Evenimentul A se numeste eveniment elementar
dac
a este implicat numai de el nsusi si de evenimentul imposibil. Celelalte evenimente
se numesc evenimente compuse.
a se pot
Definitia 1.1.3 Fie A, B E. Evenimentele A, B se numesc compatibile dac

realiza simultan, adica exista probe care realizeaz


a atat pe A cat si pe B (A B = ). In
caz contrar evenimentele se numesc incompatibile (A B = ).
Observatia 1.1.1 Operatiile de reuniune si intersectie se extind pentru un numar finit
de evenimente. Fie A1 , A2 , . . . , An E. Avem
n

(. . . ((A1 A2 ) A3 ) . . . An ) =

Ai ,
i=1

mp de probabilitate
Ca

adica evenimentul care se realizeaza daca cel putin un eveniment Ai se realizeaza si


n

(. . . ((A1 A2 ) A3 ) . . . An ) =

Ai
i=1

este evenimentul care se realizeaza daca toate evenimentele Ai , i = 1, n se realizeaza.


Mentionam cateva din proprietatile operatiilor introduse:
1. Daca A B atunci A B = B si A B = A.
2. Oricare ar fi evenimentul A au loc relatiile
A A = A, A = A, A E = E, E = E,
A A = A, A = , A E = A, E = .
3. Daca A C, B C, A, B, C E atunci A B C si A B C.
4. Daca A, B, C E atunci
A B = B A, A (B C) = (A B) C, A (B C) = (A B) (A C),
A B = B A, A (B C) = (A B) C, A (B C) = (A B) (A C).
Constructia sistematica a unui camp finit de evenimente se poate face plecand de la
doua axiome, numite axiomele campului finit de evenimente.
Notam cu P(E) multimea partilor lui E.
Definitia 1.1.4 Perechea { E, K }, K = , K P(E), se numeste camp finit de
evenimente dac
a:
a) A K A K;
b) A, B K A B K.
Consecinte ale definitiei:
1. E K deoarece (A K A K) (A A K) (E K).
2. K deoarece (E K E K) ( = E K).
= A B K.
3. Daca A, B K A \ B K deoarece A \ B = A B
4. Urmatorele proprietati sunt echivalente:
(A, B K A B K) si (A, B K A B K),

deoarece A B = A B.

mp de probabilitate
Ca

10

5. Din Definitia 1.1.4 rezulta, folosind metoda inductiei matematice, ca


n

2, Aj K, 1

Aj K.
j=1

6. Din Consecinta 4 rezulta:


n

2, Aj K, 1

Aj K.
j=1

Intr-un camp finit de evenimente au loc urmatoarele proprietati:


P1. Doua evenimente elementare distincte sunt incompatibile.
Fie A1 si A2 doua evenimente elementare. Sa presupunem ca A1 A2 = , adica
A1 A2 = B = . Deci B A1 , B = si cum A1 si A2 sunt distincte, B = A1 , deci
A1 nu este eveniment elementar, ceea ce este fals.
P2. Intr-un camp finit de evenimente exista evenimente elementare.
Fie A1 un eveniment. Daca A1 este elementar, afirmatia este demonstrata. Daca
A1 este eveniment compus exista A2 = , A2 = A1 astfel ncat A2 A1 . Daca
A2 este eveniment elementar, afirmatia este demonstrata. Daca A2 este eveniment
compus se continua rationamentul anterior. Campul fiind finit, rezulta ca exista un
eveniment elementar An = astfel ncat
An An1 . . . A1 .
P3. Fie { E, K } un camp finit de evenimente. Orice eveniment al acestui camp se poate
scrie ca reuniune finita de evenimente elementare.
Fie B un eveniment compus (daca B este un eveniment elementar atunci afirmatia
este demonstrata). Exista, conform proprietatii P2, un eveniment elementar A1 K
si un eveniment B1 K astfel nca B = A1 B1 , B1 = B \ A1 cu A1 B1 = .
Daca B1 este eveniment elementar, afirmatia este demonstrata. Daca B1 nu este
eveniment elementar, exista evenimentul elementar A2 si un eveniment B2 K
astfel ncat B1 = A2 B2 si deci B = A1 A2 B2 si rationamentul se continua.
Deci
B = A1 A2 . . . Ak ,
unde Ai , i = 1, k sunt evenimente elementare.
P4. Reuniunea tuturor evenimentelor elementare ale lui K este E.
Intr-adevar, fie
E = A1 A2 . . . As .
Presupunem ca n campul finit de evenimente mai exista un eveniment elementar
An = Aj , j = 1, s. Atunci
An E = An = An (A1 . . . As ) = (An A1 ) . . . (An As ) =
conform P1.

mp de probabilitate
Ca

11

Nu de putine ori de un real folos ne va fi descompunerea unui eveniment ntr-o reuniune


de evenimente incompatibile doua cate doua.
Definitia 1.1.5 Fie { E, K } un camp finit de evenimente si A1 , A2 , . . . , An K.
Spunem ca familia de evenimente A1 , A2 . . . An formeaz
a un sistem complet de evenimente daca:
a) Ai = , i = 1, n;
b) Ai Aj = , i = j, i, j = 1, n;
n

c)

Ai = E.
i=1

Observatia 1.1.2 Multimea tuturor evenimentelor elementare atasate unei experiente


formeaza un sistem complet de evenimente.
Exemplul 1.1.2 Sa se verifice care din urmatoarele submultimi ale lui P(E) (P(E)
multimea partilor lui E) sunt campuri finite de evenimente si, n caz afirmativ, sa se
precizeze evenimentele elementare:
1. Daca E = {1, 2, 3} si K = {, {1}, {2, 3}, {1, 2, 3}}, atunci { E, K } este camp
finit de evenimente deoarece satisface cele doua axiome ale Definitiei 1.1.4. Evenimentele elementare sunt {1} si {2,3}. Observam ca evenimentele elementare nu sunt
submultimi ale lui E formate dintr-un singur element nu este corecta. In exemplul
prezentat un eveniment elementar este format dintr-un singur element, iar celalalt
eveniment este format din doua elemente.
2. Daca E = {1, 2, 3} si K = {, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, {1, 2, 3}} = P(E)
atunci { E, K } este un camp finit de evenimente. Evenimentele elementare sunt
{1}, {2}, {3}.
3. Daca E = {1, 2, 3} si K = {{1}, {2}, {1, 3}, {1, 2, 3}} nu este un camp finit de
evenimente deoarece, de exemplu {2} = {1, 3}
/ K sau {1} {2} = {1, 2}
/ K.

1.2

C
amp finit de probabilitate

Fie o experienta si un eveniment A legat de aceasta. Repetam experienta de n ori


n conditii identice. Notam cu m numarul de realizari ale evenimentului A. Rezulta ca
n m reprezinta numarul de nerealizari ale lui A.
Definitia 1.2.1 Numarul

m
n
se numeste frecventa relativa a evenimentului A.
fn =

Observatia 1.2.1 Frecventa relativa variaza de la o experienta la alta, avand un caracter


experimental. Deoarece 0 m n rezulta 0 fn 1, n IN .

12

mp de probabilitate
Ca

Observatia 1.2.2 Frecventa relativa fn depinde de n, numarul de repetari ale experimentului. Multe experiente prezinta o stabilitate a frecventelor relative n sensul ca pe
masura ce numarul n ia valori mari, frecventa relativa oscileaza n jurul unei anumite
valori si se apropie din ce n ce mai mult de aceasta valoare. Valoarea poate fi adesea
intuita.
De exemplu, daca ntr-o urna sunt trei bile negre si una alba, la un numar mare de
extractii ale unei bile din urna, cu repunerea bilei extrase napoi, sansele de extragere
ale unei bile negre sunt de trei ori mai mari decat cele ale unei bile albe si deci, pentru
valori mari ale lui n, n cazul celor doua evenimente frecventele relative se vor stabiliza
n jurul valorilor 3/4 si respectiv 1/4. Aceasta stabilitate a frecventelor relative, verificata prin observatii si confirmata n practica, este una din legile cele mai importante ale
experientelor aleatoare. Legea a fost formulata pentru prima data de Bernoulli n teorema
care i poarta numele si este forma slaba a legii numerelor mari (Capitolul 4, Teorema
4.2.2).
Definirea probabilitatii peste un camp finit de evenimente se poate face n mod clasic
si axiomatic.
Definitia clasica a probabilitatii se poate folosi n cazul n care experienta aleatoare
are un numar finit de cazuri posibile si toate egal probabile, adica la un numar mare de
efectuari ale experientei, fiecare caz are aceeasi sansa de a se realiza.
Consideram, de exemplu, experienta care consta n aruncarea unui zar pe o suprafata
neteda. Daca zarul este perfect cubic si omogen, atunci fiecare din fete are aceeasi sansa
de a apare, frecventele relative ale fiecareia dintre ele variaza n jurul lui 1/6. In cazul n
care zarul nu ar fi omogen, atunci una sau mai multe fete ar fi favorizate.
a si evenimentele legate de aceasta astfel nc
at toate eveniDefinitia 1.2.2 Fie o experient
mentele sa fie egal posibile. Fie evenimentul A legat de aceast
a experient
a. Numim probabilitatea evenimentului A num
arul
m
P (A) =
n
dat de raportul dintre numarul m al cazurilor favorabile realiz
arii evenimentului A si
num
arul n al cazurilor egal posibile.
Mentionam ca orice proba care conduce la realizarea unui eveniment A reprezinta un
caz favorabil evenimentului A.
Observatia 1.2.3 Definitia clasica a probabilitatii, formulata pentru prima data de Laplace, este nesatisfacatoare din punct de vedere logic deoarece reduce definitia probabilitatii la problema cazurilor egal posibile care nu a putut fi definita din punct de vedere
matematic, ci numai ilustrata.
In cazul zarului neomogen, definitia clasica a probabilitatii nu poate fi aplicata. Riguros vorbind, zarul neomogen si nesimetric este singurul caz real deoarece construirea
unui zar perfect este imposibila.
Un alt incovenient al definitiei apare n cazul n care numarul cazurilor posibile este
infinit deoarece n aceasta situatie probabilitatea, calculata dupa definitia clasica, este
foarte mica sau egala cu zero.

mp de probabilitate
Ca

13

In sfarsit, definitia clasica a probabilitatii nu poate fi admisa deoarece nu pote fi aplicata n studiul fenomenelor sociale, neputandu-se determina numarul cazurilor posibile.
Observatia 1.2.4 Legatura existenta ntre frecventa relativa unui eveniment si probabilitatea sa este profunda. De fapt atunci cand calculam probabilitatea unui eveniment
ne bazam pe frecventele relative.
Exemplul 1.2.1 Se arunca un zar de doua ori. Multimea rezultatelor posibile ale experientei care consta n perechile de numere ce apar pe zar n cele doua aruncari este E =
{11, 12, . . . , 16, 21, 22, . . . , 26, 31, . . . , 66} , |E| = 62 = 36, unde |E| noteaza numarul de
elemente ale multimii E. Toate rezultatele posibile sunt echiprobabile, deci probabilitatea
unui eveniment A, P (A), este egala cu numarul elementelor din multimea A mpartit la
numarul elementelor din E. Presupunem ca vom pastra fata zarului ce contine un punct
alba, iar celelalte fete le vom colora n negru. Notam cu AN evenimentul ca la prima
aruncare a zarului sa obtinem fata alba, iar la cea de-a doua aruncare o fata neagra a
zarului. Avem AN = {12, 13, 14, 15, 16}. Rezulta
P (AN ) =

5
.
36

Analog, facand notatiile n acelasi fel, avem:


P (AA) =

1
5
25
, P (N A) =
, P (N N ) = .
36
36
36

Presupunem ca au fost sterse numerele de pe fetele zarului si au ramas culorile. Multimea rezultatelor posibile, n acest caz, este E = {AA, AN, N A, N N } cu probabilitatile
corespunzatoare. Observam ca n acest ultim caz, evenimentele AA, AN, N A, N N sunt
elementare si formeaza un sistem complet de evenimente.
Propriet
ati ale probabilit
atii:
P1. A K : 0 P (A) 1;
P2. P (E) = 1;
P3. P () = 0;
P4. A, B K, A B = : P (A B) = P (A) + P (B);
P5. A, B K, B A : P (A \ B) = P (A) P (B);
P6. A K

= 1;
: P (A) + P (A)

P7. A, B K, B A : P (B)

P (A).

Primele trei proprietati sunt evidente.


Demonstram proprietatea P4. Daca din cele n cazuri posibile, m sunt favorabile lui
A si p favorabile lui B, atunci
P (A) =

p
m
, P (B) = .
n
n

mp de probabilitate
Ca

14

Daca A B = , atunci numarul cazurilor favorabile lui A B este m + p, deci rezulta


proprietatea P4.
Aceasta proprietate poate fi extinsa n sensul ca daca A1 , A2 , . . . , An K, evenimente
incompatibile doua cate doua, adica Ai Aj = , i = j, atunci
n

P(

Ai ) =

i=1

P (Ai ).
i=1

Demonstratia rezulta utilizand metoda inductiei matematice.


Demonstram proprietatea P5. Scriem A = (A \ B) B si atunci (A \ B) B = ,
deci, conform proprietatii P4,
P (A) = P ((A \ B) B) = P (A \ B) + P (B) P (A \ B) = P (A) P (B).
Mai general, avem:
A, B K :

P (A \ B) = P (A) P (A B).

(1.1)

Intr-adevar, scriem A = (A \ B) (A B). Deoarece (A \ B) (A B) = avem, conform


proprietatii P4, P (A) = P (A \ B) + P (A B). Rezulta formula (1.1).
folosind P2.
Proprietatea P6 se obtine din P4 punand B = A,
Pentru a demonstra proprietatea P7 folosim P5. Daca B A atunci P (A \ B) =
P (A) P (B) 0 si deoarece, conform P1, P (A \ B) 0 rezulta proprietatea dorita.
Definitia 1.2.3 Un sistem finit de evenimente { E, K } asociat unei experiente aleatoare cu un numar finit de cazuri egal posibile mpreun
a cu probabilit
atile acestor evenimente
formeaz
a un camp finit de probabilitate notat { E, K, P }.
Odata introdusa notiunea de probabilitate, putem defini doua notiuni importante n
teoria probabilitatilor si anume notiunea de probabilitate conditionata si de independenta
n probabilitate a evenimentelor.
Uneori trebuie sa calculam probabilitatea unui eveniment A legat de un eveniment
B, n ipoteza ca evenimentul B s-a realizat. Pentru aceasta restrangem multimea evenimentelor care realizeaza evenimentul A la cele care realizeaza si evenimentul B, deci
restrangem E la B. Pentru ca aceasta restrictie sa aiba sens este necesar ca evenimentul
B sa fie de probabilitate nenula.
Fie { E, K, P } un camp finit de probabilitate si A, B K, P (B) = 0.
Definitia 1.2.4 Numim probabilitatea evenimentului A conditionata de evenimentul B
(notat PB (A) sau P (A|B)) probabilitatea de realizare a evenimentului A n ipoteza ca
evenimentul B s-a realizat, probabilitate definita prin
P (A|B) =

P (A B)
.
P (B)

(1.2)

Observatia 1.2.5 Fie m numarul cazurilor favorabile lui B, p numarul cazurilor favorabile lui A si q favorabile lui A B. Din cele m cazuri favorabile lui B, q sunt favorabile

mp de probabilitate
Ca

15

si lui A sau, ceea ce este acelasi lucru, din cele p cazuri favorabile lui A, q sunt favorabile
si lui B. Avem
m
p
q
P (B) = , P (A) = , P (A B) = .
n
n
n
In ipoteza ca B s-a realizat, raman m cazuri posibile, din care q favorabile lui A. Deci
q
q
n = P (A B) .
P (A|B) =
= m
m
P (B)
n
Aceasta ar putea constitui o justificare a relatiei (1.2).
Observatia 1.2.6 Daca presupunem ca P (A) = 0, atunci
P (B|A) =

P (A B)
.
P (A)

(1.3)

Observatia 1.2.7 Din relatiile (1.2) si (1.3) retinem


P (A B) = P (B)P (A|B)
si
P (A B) = P (A)P (B|A).
Fie { E, K, P } un camp finit de probabilitate si A, B K.
Definitia 1.2.5 Evenimentele A si B sunt independente (n probabilitate) daca probabilitatea ca unul sa se realizeze nu depinde de faptul ca cel
alalt s-a realizat sau nu, altfel
spus
P (A B) = P (A)P (B).
(1.4)
Teorema 1.2.1 Evenimentele A si B cu P (A)P (B) = 0 sunt independente daca si numai
dac
a are loc una din relatiile:
a) P (B|A) = P (B);
b) P (A|B) = P (A);
= P (B);
c) P (B|A)
= P (A).
d) P (A|B)
Demonstratie. Aratam ca cele patru relatii sunt echivalente cu relatia (1.4) din definitie. In
acest fel se justifica si sensul Definitiei 1.2.5. Presupunem ca are loc a). Atunci, deoarece
P (B|A) =
rezulta P (A B) = P (A)P (B), adica (1.4).

P (A B)
P (A)

mp de probabilitate
Ca

16
Reciproc, daca P (A B) = P (A)P (B) si deoarece
P (B|A) =

P (A B)
P (A)P (B)
=
= P (B)
P (A)
P (A)

rezulta a). Cum relatia (1.4) este simetrica n A si B, rezulta ca (1.4) este echivalenta cu
b).
Demonstram ca
(B)
P (A B) = P (A)P
(1.5)
(B) atunci deoarece
este echivalenta cu (1.4). Intr-adevar, daca P (A B) = P (A)P

A B = B \ A avem P (B \ A) = P (A)P (B) sau


P (B) P (A B) = (1 P (A))P (B)
echivalent cu
P (B) P (A B) = P (B) P (A)P (B),
Vom avea P (A B) =
deci (1.4). Invers, presupunem (1.4) si luam n locul lui A pe A.
(B), adica (1.5). Deci c) este echivalent cu (1.5) care este echivalent cu (1.4),
P (A)P
rezulta ca c) este echivalent cu (1.4). Echivalenta lui d) cu (1.4) rezulta n mod analog.
Definitia 1.2.6 Date evenimentele A1 , A2 , . . . , An , vom spune ca sunt independente dac
a
probabilitatea oricarei intersectii finite de evenimente este egal
a cu produsul probabilitatilor evenimentelor intersectate, adica daca
P (Ai1 Ai2 . . . Aik ) = P (Ai1 )P (Ai2 ) . . . P (Aik )
oricare ar fi 1

i1

i2

...

ik

n.

Observatia 1.2.8 Din definitie rezulta ca daca trei evenimente sunt independete doua
cate doua nu rezulta ca sunt independente n totalitatea lor. Exemplul lui S.N.Bernstein
ne va ilustra acest lucru. Consideram un tetraedru omogen cu fetele colorate astfel: una
n alb, una n negru, una n rosu si a patra n toate cele trei culori. Aruncand tetraedrul
pe o masa el se aseaza pe una din fete; ne intereseaza probabilitatea aparitei fiecarei culori
si independenta evenimentelor corespunzatoare. Notam cu A1 evenimentul care consta n
aparitia culorii albe, A2 evenimentul care consta n aparitia culorii negre si A3 evenimentul
care consta n aparitia culorii rosii. Avem:
P (A1 ) = P (A2 ) = P (A3 ) =

1
2

deoarece pentru fiecare culoare sunt patru cazuri posibile si doua favorabile (fata cu
culorea respectiva si fata cu cele trei culori). Se constata ca
1
P (A1 A2 ) = P (A1 A3 ) = P (A2 A3 ) = ,
4
dar
P (A1 A2 A3 ) =

1
1
= P (A1 )P (A2 )P (A3 ) = .
4
8

mp de probabilitate
Ca

1.3

17

Metode de num
arare

Calculul probabilitatilor conduce adesea la numararea diferitelor cazuri posibile. Capitolul din algebra referitor la permutari, aranjamente si combinari este foarte util n aceasta
situatie.
rii. Presupunem ca avem doua situatii A si B, situatia A
Principiul multiplica
se poate realiza n m moduri, iar situatia B n k moduri. Numarul de moduri n are se
poate realiza A si B este m k.
Mai general, presupunem ca avem r
2 situatii. In prima situatie putem face m1
alegeri, n a doua m2 ,. . ., n a r-a situatie mr alegeri, deci n total m1 m2 . . . mr .
Exemplul 1.3.1 Care este numarul situatiilor care apar aruncand doua zaruri? Pentru
primul zar sunt 6 situatii, pentru al doilea 6 situatii, n total 6 6 situatii.
In continuare vom face distinctie ntre o multime cu o ordine determinata de dispunere
a elementelor sale, numita multime ordonata si o multime n care nu ne intereseaza ordinea
elementelor.
ri: Fie o multime A cu n elemente. Elementele acestei multimi se pot orPermuta
dona n mai multe moduri. Fiecare multime ordonata care se formeaza cu cele n elemente
ale multimii A se numeste permutare a elementelor acelei multimi. Numarul permutarilor
cu n elemente este n! = 1 2 . . . n.
Aranjamente: Fie o multime A cu n elemente. Submultimile ordonate ale lui A,
avand fiecare cate k elemente, 0
k
n, se numesc aranjamente de n luate cate k.
Numarul aranjamentelor de n luate cate k se noteaza
Akn = n(n 1) . . . (n k + 1).
Exemplul 1.3.2 In cate moduri este posibil sa facem un steag tricolor daca avem la
dispozite panza de steag de cinci culori diferite ?
Doua steaguri tricolore care au aceleasi culori se deosebesc daca ordinea culorilor este
diferita. Deci ne intereseaza cate submultmi de cate trei elemente se pot forma cu elementele unei multimi de cinci elemente, n submultmi interesandu-ne ordinea elementelor.
Deci sunt A35 = 5 4 3 = 60.
ri: Fie o multime A cu n elemente. Submultimile lui A avand fiecare cate k
Combina
elemente, 0 k n, n care nu ne intereseaza ordinea elementelor, se numesc combinari
de n luate cate k. Numarul combinarilor de n luate cate k se noteaza
Akn
.
k!
Exemplul 1.3.3 Pentru un joc, cinci fete si trei baieti trebuie sa formeze doua echipe
de cate patru persoane. In cate moduri se pot forma echipele ?
In total sunt 8 copii cu ajutorul carora trebuie facute doua grupe a cate patru copii.
Studiem n cate moduri se poate forma o grupa de 4, cealalta formandu-se din copiii
ramasi. Nu intereseaza numarul de fete sau de baieti din grupa si nici ordinea lor, ci
numai numarul de grupe care se pot forma. Acest numar este
Cnk =

C54 + C53 C31 + C52 C32 + C51 C33 = C84 = 70.

mp de probabilitate
Ca

18

1.4

Moduri de selectare a elementelor

Presupunem ca o urna contine m bile, marcate de la 1 la m, din care se extrag n bile


n anumite conditii. Vom numara, n fiecare situatie, numarul cazurilor posibile. Evident
n m.
1. Selectare cu ntoarcerea bilei extrase n urn
a si ordonare.
Extragem n bile pe rand, fiecare bila fiind pusa napoi n urna nainte de urmatorea
extragere, nsemnand numarul bilelor n ordinea n care apar (intereseaza ordinea
bilelor n n-uplul extras). Conform principiului multiplicarii, n care m1 = m2 =
. . . = mn = m, numarul n-uplurilor este mn .
2. Selectare f
ar
a ntoarcerea bilei n urn
a si cu ordonare.
Procedam ca si n cazul ntai, dar dupa fiecare extragere bila obtinuta este pusa la o
parte, aceasta operatie fiind echivalenta cu extragerea simultana din urna a n bile.
Obtinem n-upluri (a1 , a2 , . . . , an ). Regula de multiplicare se aplica astfel: pentru a1
avem m posibilitati, pentru a2 avem m 1 posibilitati,. . .,pentru an avem m n + 1
posibilitati, n total
m (m 1) . . . (m n + 1) = Anm .
Caz particular: daca m = n, atunci numarul cazurilor posibile este n!.
3. Selectare cu ntoarcerea bilei n urn
a si f
ar
a ordonare.
Extragem n bile, una dupa alta, fiecare fiind repusa n urna nainte de a realiza
urmatoarea extragere. Nu tinem seama de ordinea bilelor n multimea formata. Pot
n
exista si repetitii. Numarul cazurilor posibile este Cn+m1
, deoarece ar fi ca si cum
am extrage simultan dintr-o urna care contine n + m 1 bile (numerotate de la 1
la m, unele din ele putandu-se repeta) n bile, fara sa ne intereseze ordinea. Dupa
ultima extragere secventiala n urna vor ramane m 1 bile.
ar
a ntorcerea bilei si f
ar
a ordonare.
4. Selectare f
Bilele sunt extrase una dupa alta, fara a pune bila extrasa napoi; este acelasi lucru
cu a spune ca extragem n bile dintr-o data si formam submultimi de n elemente, n
n
.
total Cm
Caz particular: determinarea numarului de permutari a m elemente care se disting
prin grupuri de culori, adica avem m1 elemente de culoarea c1 , m2 elemente de
culoarea c2 ,. . . , mr elemente de culoarea cr . Culorile sunt distincte, dar bilele de
aceeasi culoare nu se disting ntre ele.
m1 + m2 + . . . + mr = m.
m1
Numarul cazurilor posibile : Cm
moduri de alegere a pozitiilor bilelor de culoare c1 ,
m2
mr
Cmm1 moduri de alegere a pozitiilor bilelor de culoare c2 ,. . . , Cmm
moduri
1 ...mr1

mp de probabilitate
Ca

19

de alegere a pozitiilor bilelor de culoarea cm (de fapt mm1 m2 . . .mr1 = mr si


avem, de fapt, o singura posibilitate), n total, tinand seama de regula multiplicarii,
mr
m1 m2
Cm
Cmm1 . . . Cmm
=
1 ...mr1

1.5

(m m1 )!
(m m1 . . . mr )!
m!

...
=
m1 ! (m m1 )! m2 ! (m m1 m2 )!
(m m1 . . . mr )! mr1 !

m!
.
m1 ! m2 ! . . . mr !

Definitia axiomatic
a a probabilit
atii

Notiunile de probabilitate si de camp finit de probabilitate se pot prezenta si sub forma


axiomatica.
Definitia 1.5.1 Se numeste probabilitate (masura de probabilitate) o functie definita pe
un camp finit de evenimente { E, K } cu valori reale care satisface urmatoarele axiome:
a) P (A)

0,

A K;

b) P (E) = 1;
c) P (A B) = P (A) + P (B)

A, B K, A B = .

Observatia 1.5.1 Axioma c) din definitie se extinde prin recurenta la orice numar finit
de evenimente incompatibile doua cate doua, deci daca Ai Aj = , i = j, i, j = 1, n,
atunci
n
n
P(

Ai ) =

i=1

P (Ai ).
i=1

Definitia clasica a probabilitatii satisface toate axiomele definitiei date si, de asemenea,
oricare din proprietatile prezentate anterior pentru probabilitate poate fi obtinuta din
definitia axiomatica. Intr-adevar,
P1. P () = 0.
Deoarece E = E si E = rezulta ca P (E ) = P (E) + P (), adica
P () = 0.
P2. P (A \ B) = P (A) P (A B).
Deoarece (A\B)(AB) = A si (A\B)(AB) = rezulta P (A\B)+P (AB) =
P (A).
P3. Pentru orice A, B K, A B are loc relatia P (A) P (B).
Intr-adevar, tinand seama de P2 si de faptul ca A B avem
0
Deci P (B) P (A)

P (B \ A) = P (B) P (B A) = P (B) P (A).


0 sau P (B)

P (A).

mp de probabilitate
Ca

20
P4. Pentru orice A K are loc inegalitatea 0 P (A) 1.
Intr-adevar, A E si, folosind P3, avem P () P (A)

P (E) sau 0

P (A)

1.

Definitia 1.5.2 Se numeste camp finit de probabilitate un camp finit de evenimente


{E, K} pe care am definit o probabilitate P . Se noteaz
a {E, K, P }.
Observatia 1.5.2 Definitiile probabilitatilor conditionate si a independentei evenimentelor raman aceleasi si atunci cand construirea teoriei pobabilitatilor se realizeaza folosind
metoda axiomatica.
Observatia 1.5.3 Daca E este reuniune finita de evenimente elementare, fie
E = {A1 , A2 , . . . , An }, atunci orice eveniment A K, A = pote fi scris ca o reuniune
finita de evenimente elementare, conform P3 din Capitolul 1.1, adica
A = Ai1 Ai2 . . . Aik ,
unde Aij este un eveniment elementar, j = 1, k. Atunci conform Observatiei 1.5.1
obtinem
P (A) = P (Ai1 ) + . . . + P (Aik ).
Deci pentru a cunoaste probabilitatea unui eveniment oarecare din K este suficient sa
cunoastem probabilitatea tuturor evenimentelor elementare care-l compun.
Probabilitatea unui astfel de eveniment A este suma probabilitatilor evenimentelor elementare ce-l compun. Evident, probabilitatile evenimentelor elementare satisfac conditiile
P (Ai )

0, i = 1, n,

(1.6)

P (A1 ) + P (A2 ) + . . . + P (An ) = P (E) = 1.

(1.7)

Deci, fiind date toate evenimentele elementare care compun E, familia K este perfect
determinata si deci campul de probabilitate mai depinde de alegerea a n numere (probabilitatile evenimentelor elementare) care satisfac conditiile (1.6) si (1.7). In cazul particular cand evenimentele elementare sunt echiprobabile
P (A1 ) = P (A2 ) = . . . = P (An ) =

1
,
n

k
si daca A = Ai1 Ai2 . . . Ain , obtinem P (A) = , deci ajungem astfel la definitia
n
clasica a probabilitatii.
Observatia 1.5.4 In definitia axiomatica a probabilitatii conditia pusa cazurilor posibile de a fi egal probabile este superflua. Un exemplu celebru, dat de DAlembert, ilustreaza aceasta. Se arunca doua monede simultan. Exista trei cazuri posibile care nu sunt
echiprobabile: A evenimentul ca pe ambele monede sa apara banul, B evenimentul ca pe
ambele monede sa nu apara banul, C evenimentul ca pe una din monede sa apara banul,
iar pe cealalta nu. Probabilitatile evenimentelor A, B, C nu sunt 1/3.
1
1
1
P (A) = , P (B) = , P (C) = ,
4
4
2

mp de probabilitate
Ca

21

deoarece evenimentul C este compus din doua situatii: pe una din monede sa apara banul
iar pe cealata nu, si invers. Cele doua cazuri care compun evenimentul C ar fi evidente
daca monedele nu s-ar arunca simultan, ci una dupa alta. Cele doua monede pot fi
nedistinse din punct de vedere fizic si deci cele trei cazuri prezentate de DAlembert sunt
de fapt cele trei cazuri care se pot distinge.

1.6

Formule probabilistice

Probabilitatea unei reuniuni de evenimente. Daca {E, K, P } un camp finit de


probabilitate atunci oricare ar fi A, B K are loc relatia
P (A B) = P (A) + P (B) P (A B).

(1.8)

Facem observatia ca vom demonstra formulele folosind definitia axiomatica a probabilitatii. Deoarece A B = A (B \ A) si A (B \ A) = , avem
P (A B) = P (A (B \ A)) = P (A) + P (B \ A)
dar, conform proprietatii P2 din Capitolul 1.5,
P (B \ A) = P (B) P (B A)
si deci rezulta (1.8).
Relatia se poate extinde si n cazul a n evenimente
n

P(

Ai ) =

P (Ai )

i=1

i=1

n
n1

P (Ai Aj ) + . . . + (1)
i,j=1,i<j

P(

Ai ).

(1.9)

i=1

Demonstratia se face prin inductie matematica dupa n. Pentru n = 2 relatia este


demonstrata. Presupunem formula adevarata pentru n si o demonstram pentru n + 1.
n+1

P(

Ai ) = P ((
i=1

Ai ) An+1 ) = P (

i=1

Ai ) + P (An+1 ) P ((

i=1

i=1

P (Ai Aj ) + . . . +(1)n1 P (

P (Ai )
i,j=1,i<j

P (Ai

n+1

n+1

Ai ) =
i=1

An+1 )+

i=1

n+1

P (Ai Aj An+1 ) + . . . +(1)n P (


i,j=1, i<j

P (Ai )
i=1
n+1

P (Ai Aj ) + . . . +
i,j=1,i<j

Ai )

i=1

n+1

Ai ) An+1 ) =

i=1

1 i<j<k n+1

P (Ai Aj Ak ) + . . . + (1)n+1 P (

Ai ).
i=1

mp de probabilitate
Ca

22

Probabilitatea unei intersectii. Fie {E, K, P } un camp finit de evenimente. Oricare ar fi A, B K are loc relatia
P (A|B) =

P (A B)
.
P (B)

Relatia de mai sus rezulta din (1.2). Ea poate fi folosita pentru a calcula probabilitatea
unei intersectii:
P (A B) = P (B)P (A|B).
Cand folosim aceasta formula la rezolvarea unei probleme trebuie sa consideram evenimentele A si B ntr-o ordine convenabil aleasa, dat fiind ca se poate utiliza, datorita
echivalentei demonstrate, relatia
P (A B) = P (A)P (B|A).
k

Formula se poate extinde si n cazul a n evenimente A1 , A2 , . . ., An , cu P (

Ai ) = 0,

i=1

k = 2, n 1, sub forma
n

P(

Ai ) = P (A1 )P (A2 |A1 )P (A3 |(A1 A2 )) . . . P (An |(A1 A2 . . . An1 )).

(1.10)

i=1

Intr-adevar, folosind definitia probabilitatii conditionate, obtinem


P (A1 ) = P (A1 ),
P (A2 |A1 ) =
P (A3 |(A1 A2 )) =

P (A2 A1 )
,
P (A1 )
P (A1 A2 A3 )
,
P (A1 A2 )

...
P (An |(A1 A2 . . . An1 )) =

P (A1 A2 . . . An )
.
P (A1 A2 . . . An1 )

Inmultind relatiile membru cu membru si facand simplificarile corespunzatoare, obtinem


(1.10).
Observatia 1.6.1 Daca evenimentele A si B nu sunt independente, atunci din
P (A B) = P (A) + P (B) P (A B),
0

P (A B)

1,

rezulta
P (A B)

P (A) + P (B) 1

mp de probabilitate
Ca

23

sau, notand p1 = P (A), p2 = P (B), p12 = P (A B) atunci p12


p1 + p2 1. Aceasta
inegalitate poarta numele de inegalitatea lui Boole si da o margine inferioara pentru
probabilitatea intersectiei a doua evenimente. Se poate demonstra, mai general,
p12...n

p1 + p2 + . . . + pn (n 1),
n

unde pi = P (Ai ), i = 1, n, p12...n = P (

Ai ).

i=1

Formula probabilit
atii totale. Fie {E, K, P } un camp finit de evenimente,
{A1 , A2 , . . . , An }, Ai K, i = 1, n, un sistem complet de evenimente si B un eveniment
oarecare, B K. Atunci
n

P (B) =

P (Ai )P (B|Ai ).

(1.11)

i=1
n

Intr-adevar, deoarece E =

Ai putem scrie
i=1
n

B =BE =B(

Ai ) =

i=1

(B Ai )
i=1

si cum pentru i = j, Ai Aj = atunci avem


n

P (B) =

P (B Ai ) =
i=1

P (Ai )P (B|Ai ).
i=1

Formula lui Bayes. Fie {E, K, P } un camp finit de evenimente si {A1 , A2 , . . . , An },


Ai K, i = 1, n un sistem complet de evenimente si B un eveniment oarecare. Atunci
P (Ai |B) =

P (B|Ai )P (Ai )
n

(1.12)

P (Aj )P (B|Aj )
j=1

In conditiile date prin ipoteza are loc formula probabilitatii totale si tinand seama de
(1.2) obtinem
P (B Ai )
P (B|Ai )P (Ai )
P (Ai |B) =
= n
P (B)
P (Aj )P (B|Aj )
j=1

Exemplul 1.6.1 Controlul de calitate.Presupunem ca ntr-o cutie sunt 550 de piese, din
care 2% sunt defecte. Care este probabilitatea ca alegand 25 de piese, acestea sa contina
doua piese defecte. Acesta este principiul testarii produselor prin selectii aleatoare.
Problema poate fi rezolvata ntr-un caz general. Presupunem ca avem k piese defecte
din m piese, k m. Care este probabilitatea ca alegand n piese, dintre acestea j sa fie
defecte?

mp de probabilitate
Ca

24

Putem alege cele n piese dintre cele m(m n), fara sa ne intereseze ordinea pieselor,
n
n Cm
moduri. Cate din acestea vor contine j piese defecte? Putem alege cele j piese
nj
defecte, din cele k, n Ckj moduri, iar celelalte n j care nu sunt defecte n Cmk
moduri.
Probabilitatea cautata va fi
nj
Cmk
Ckj
.
(1.13)
n
Cm
In cazul nostru, m = 550, k = 11, n = 25, j = 2, astfel ncat probabilitatea cautata va fi
2
23
C11
C550
= 0, 12.
25
C550

Daca nsumam probabilitatile (1.13) dupa j, 0


j
n, rezultatul va fi 1, deoarece au
fost luate n considerare toate posibilitatile. Am demonstrat formula
k
nj
n
Ckj Cmk
= Cm
j=0

cu argumente probabilistice.
Exemplul 1.6.2 Daca se amestesca un pachet de carti, care este probabilitatea ca cei
patru asi sa apara unul dupa altul ?
Sunt 52 de carti dintre care patru asi. Un rezultat posibil al experientei este o nsiruire
de 52 de carti, adica o permutare a celor 52 de carti. Sunt 52! cazuri posibile. In cate din
aceste cazuri cei patru asi se gasesc unul dupa altul? Cei patru asi pot apare consecutiv
n 49 4! moduri. Restul de 48 de carti se pot aranja n 48! moduri. Folosind principiul
multiplicarii, numarul cazurilor favorabile va fi 4! 49 48!. Probabilitatea cautata va fi
49! 4
= 0, 00003.
52!
Exemplul 1.6.3 Urna U1 contine doua bile rosii si patru albe, urna U2 contine o bila
rosie si doua albe iar urna U3 contine cinci bile rosii si patru bile albe. Fie Ai evenimentul
de a extrage o bila dintr-o urna oarecare Ui , i = 1, 3. Presupunem ca probabilitatea
de a extrage o bila din urna Ui este P (A1 ) = 1/3, din U2 este P (A2 ) = 1/6 si din
U3 , P (A3 ) = 1/2. Se cere probabilitatea de a extrage o bila rosie.
Fie R evenimentul de a extrage o bila rosie. Observam ca P (R) depinde n primul
rnd de urna din care s-a facut extragerea si apoi de structura urnei din care am facut
extragerea, adica R este reuniunea evenimentelor disjuncte A1 R, A2 R, A3 R. Facem
observatia ca A1 , A2 , A3 formeaza un sistem complet de evenimente. Astfel
3

P (R) = P (

(Ai R)) =

i=1

P (Ai R) =
i=1

P (Ai )P (R|Ai ) =
i=1

4
9

Presupunem acum ca rezultatul experientei este o bila rosie, dar nu stim din ce urna
provine. Dorim sa calculam probabilitatea ca bila rosie sa provina din urna U1 , adica
P (A1 |R). Conform formulei lui Bayes
P (A1 |R) =

1
P (A1 )P (R|A1 )
= .
P (R)
4

mp de probabilitate
Ca

25

La fel

1
5
P (A3 |R) = .
8
8
Observam ca probabilitatile conditionate P (A1 |R), P (A2 |R), P (A3 |R) s-au modificat fata
de probabilitatile initiale P (A1 ), P (A2 ), P (A3 ) ntr-un mod care confirma intuitia, adica
daca s-a extras o bila rosie, probabilitatea ca sa apartina urnei U3 este mai mare deoarece
U3 are un procent mai ridicat de bile rosii si, de asemenea, probabilitatea de a selecta o bila
rosie din U3 este mai mare decat din U2 sau U1 . Adesea P (A1 ), P (A2 ), P (A3 ) se numesc
probabilitati apriori, iar P (A1 |R), P (A2 |R), P (A3 |R) se numesc probabilitati aposteriori.
P (A2 |R) =

Exemplul 1.6.4 Un canal transmite semnale sub forma de siruri formate din cifrele 0
si 1. In canal pot apare perturbari care produc erori, astfel ncat n loc de 1 apare
0 sau invers. Sa presupunem ca prin B1 si B2 ntelegem evenimentele care constau n
transmiterea cifrelor 1, respectiv 0, iar receptionarea cifrelor 1 si 0 le consideram ca fiind
evenimentele aleatoare A1 si respectiv A2 . Probabilitatile apriori pentru transmiterea lui
1 sau 0 sunt
P (B1 ) = p P (B2 ) = 1 p = q
iar probabilitatea de a receptiona 0, daca s-a transmis 1, este egala cu q10 , pe cand probabilitatea de a receptiona 1, daca s-a transmis 0, este q01 . Sa calculam probabilitatile
aposteriori P (Bj |Ak ), j, k = 1, 2.
Conform formulei lui Bayes avem
P (Bj |Ak ) =

P (Ak |Bj )P (Bj )


, j, k = 1, 2.
P (B1 )P (Ak |B1 ) + P (B2 )P (Ak |B2 )

Deoarece avem P (A2 |B1 ) = q10 , P (A1 |B2 ) = q01 si notand p10 = 1 q10 , p01 = 1 q01 se
deduce
P (B1 |A1 ) =

pp10
p(1 p10 )
, P (B1 |A2 ) =
,
pp10 + (1 p)(1 p01 )
p(1 p10 ) + (1 p)p01

P (B2 |A1 ) =

(1 p)(1 p10 )
(1 p)p01
, P (B2 |A2 ) =
.
pp10 + (1 p)(1 p01 )
p(1 p10 ) + (1 p)p01

Sa observam ca
P (A1 ) = P (B1 )P (A1 |B1 ) + P (B2 )P (A1 |B2 ) = pp10 + (1 p)(1 p01 ),
iar
P (A2 ) = P (B1 )P (A2 |B1 ) + P (B2 )P (A2 |B2 ) = p(1 p10 ) + (1 p)p01 = 1 P (A1 ).
In particular, n ipoteza ca este vorba de un canal simetric (q01 = q10 si deci p01 = p10 ),
iar p = q = 12 se deduce
1
1
P (A1 ) = pp10 + (1 p)(1 p10 ) = , P (A2 ) = p(1 p10 ) + (1 p)p10 =
2
2
P (B1 |A2 ) = P (B2 |A1 ) = 1 p10 , P (B1 |A1 ) = P (B2 |A2 ) = p10 .
ceea ce era previzibil.

mp de probabilitate
Ca

26

Exemplul 1.6.5 Demonstram ca daca Ai , i I, I o multime finita de indici, {Ai }iI


formeaza un sistem complet de evenimente, atunci
P ((

Ai )|A) =

P (Ai |A).

iI

(1.14)

iI

Pornind de la membrul ntai


P ((
P ((

Ai ) A)
iI

Ai )|A) =

(Ai A))
iI

P (A)

iI

P(

P (A)

si tinand seama de
(Ai A) (Aj A) = , i, j I, i = j,
obtinem
P (Ai A)
P ((

Ai )|A)) =

iI

P (A)

iI

P (Ai |A)P (A)


=

iI

P (A)

P (Ai |A).
iI

Exemplul 1.6.6 Fie I o multime finita de indici, {Ai }iI un sistem complet de evenimente si A, B doua evenimente oarecare. Atunci
P(

(A Ai )|B) =
iI

P (A|(Ai B))P (Ai |B)

(1.15)

iI

Folosim formula (1.14) obtinem


P (A Ai B)
P(

(A Ai )|B) =
iI

P ((A Ai )|B) =

P (B)

iI

iI

P (B)
=

P (A|(Ai B))P (Ai |B)P (B)

P (A|(Ai B))P (Ai B)


=

iI

iI

P (B)

P (A|(Ai B))P (Ai |B).


iI

1.7

Scheme clasice de probabilitate

Schema lui Poisson. Se dau n urne U1 , U2 , . . . , Un care contin bile albe si bile negre
n proportii date, deci cunoastem probabilitatile pi , i = 1, n, cu care este extrasa o bila
alba din urna Ui . Se cere probabilitatea de a extrage k bile albe si n k bile negre, atunci
cand din fiecare urna se extrage cate o bila.

mp de probabilitate
Ca

27

Notam cu Ai evenimentul extragerii unei bile albe din urna Ui . Notam si Bk evenimentul care consta n extragerea a k bile albe si n k bile negre, adica
Bk = (A1 . . . Ak Ak+1 An ) (A1 . . . Ak Ak+1 Ak+2 . . . An )
(A1 . . . Ank Ank+1 . . . An ),
numarul parantezelor fiind Cnk . Un eveniment
Ai1 . . . Aik Aik+1 . . . Ain
se realizeaza, tinand seama ca evenimentele sunt independente, cu probabilitatea
pi1 . . . pik qik+1 . . . qin
indicii i1 , i2 . . . , in reprezentand o permutare a indicilor 1, 2, . . . , n , iar litera p apare de
k ori cu indici diferiti, iar q de n k ori cu indici care nu apar n p . Se observa ca dupa
aceiasi regula se calculeaza coeficientul lui xk din polinomul
P (x) = (p1 x + q1 )(p2 x + q2 ) . . . (pn x + qn ).
Schema lui Poisson permite rezolvarea problemelor n care se cere probabilitatea realizarii
de k ori a unor evenimente A1 , A2 , . . . , An atunci cand se repeta de n ori aceste experiente,
presupuse independente, cand cunoastem P (Ai ) = pi , i = 1, n.
Exemplul 1.7.1 Intr-un atelier sunt trei masini. Prima da 0,9 % rebut, a doua 1 % si a
treia 1,3 %. Se ia la ntamplare cate o piesa de la fiecare masina. Se cere probabilitatea
ca doua din piese sa fie bune si una rebut.
p1 = 0, 991, q1 = 0, 001, p2 = 0, 99,
.
q2 = 0, 01, p3 = 0, 987, q3 = 0, 013,
P (x) = (0, 991x + 0, 009)(0, 99x + 0, 01)(0, 987x + 0, 013).
Coeficientul lui x2 este
0, 991 0, 99 0, 013 + 0, 99 0, 987 0, 987 0, 009 + 0, 991 0, 987 0, 01 = 0, 0313.
Schema lui Bernoulli. Presupunem ca n schema lui Poisson urnele U1 , U2 , . . . , Un
sunt identice. Atunci putem lua
p1 = p2 = . . . = pn = p,

q 1 = q2 = . . . = qn = q

Probabilitatea extragerii a k bile albe se va obtine calculand coeficientul lui xk din polinomul
P (x) = (px + q)n ,
adica va fi
Cnk pk q nk .
Recunoastem n aceasta expresie termenul general al ridicarii la puterea n a binomului px+
q. Pentru acest motiv schema se mai numeste binomiala. Deoarece urnele sunt identice,

mp de probabilitate
Ca

28

putem considera ca toate extragerile se fac dintr-o singura urna, bila extrasa punandu-se
n urna dupa fiecare extragere. Obtinem astfel schema lui Bernoulli. Probabilitatea de a
extrage k bile albe din n extrageri dintr-o urna, punandu-se de fiecare data bila napoi,
este
Pn,k = Cnk pk q nk ,
unde p este probabilitatea otinerii unei bile albe dintr-o singura extragere si q = 1 p.
Schema lui Bernoulli se mai numeste shema bilei revenite (ntoarse).
Exemplul 1.7.2 Se arunca un zar de 5 ori. Se cere probabilitatea ca fata cu un punct
sa apara exact de doua ori.
Avem:
1
5
p = , q = , n = 5, k = 2,
6
6
1 5
P5,2 = C52 ( )2 ( )3 = 0, 16.
6 6
Schema lui Bernoulli cu mai multe st
ari. Fie o urna care contine bile de m
culori c1 , c2 , . . . , cm iar pi probabilitatea ca la o extragere sa obtinem o bila de culoarea
ci . Probabilitatea ca n n extrageri sa obtinem n1 bile de culoarea c1 , n2 bile de culoarea
c2 , . . . , nm bile de culoarea cm (n1 + n2 + . . . + nm = n) este
n!
pn1 1 pn2 2 . . . pnmm .
n1 ! n2 ! . . . nm !
Aceasta schema rezolva problemele n care se cere probabilitatea ca n n efectuari ale
experientei evenimentul Ai sa se realizeze de ni ori, A1 , A2 , . . . , Am fiind un sistem complet
de evenimente si P (Ai ) = pi , i = 1, m. Presupunem ca n cele n efectuari ale experientei
s-au obtinut succesiv
A1 . . . A1 A2 . . . A2 . . . Am . . . Am .
n1

n2

nm

Acest eveniment se produce cu probabilitatea


p1 . . . p1 p2 . . . p2 . . . pm . . . pm .
n1

n2

nm

Acelasi rezultat l obtinem pentru orice alta ordine stabilita dinainte n care Ai apare de
ni ori. Ramane sa vedem n cate moduri putem scrie cele n simboluri, dintre care n1 egale
cu A1 , n2 cu A2 , . . . , nm cu Am .
n2
n3
nm
Cnn
. . . Cnn
=
Cnn1 Cnn
1
1 n2
1 n2 ...nm1

n!
(n n1 . . . nm1 )!
(n n1 )!
...
=
n1 ! (n n1 )! n2 ! (n n1 n2 )!
nm ! (n n1 . . . nnm )!
=

n!
.
n1 ! . . . nm !

mp de probabilitate
Ca

29

Exemplul 1.7.3 Se arunca un zar de 5 ori. Care este probabilitatea ca exact de doua
ori sa apara fata cu un punct si exact de 2 ori sa apara fata cu doua puncte?
Avem:
n = 5, n1 = 2, n2 = 2, n3 = 1,
1
1
2
p1 = , p2 = , p3 = ,
6
6
3
5!
1 1 2
5
P4,2,2,1 =
( )2 ( )2 ( ) =
.
2! 2! 1!
6 6 3
324
Schema hipergeometric
a. O urna contine a bile albe si b bile negre. Din aceasta
urna se extrag n bile (n a + b) pe rand, fara a pune bila extrasa napoi n urna (ceea
ce este echivalent cu a extrage n bile deodata). Se cere probabilitatea ca din cele n
bile extrase, k sa fie albe (k
a) si n k negre (n k
b). Pentru a calcula acesta
probabilitate vom stabili numarul cazurilor posibile si numarul cazurlor favorabile.
n
Numarul cazurilor posibile este: Ca+b
.
Numarul cazurilor favorabile: un grup de k bile albe dintr-un total de a bile albe
poate fi luat n Cak moduri; un grup de n k bile negre din totalul de b bile negre poate
fi obtinut n Cbnk moduri. Un grup de k bile albe si n k bile negre poate fi obtinut,
conform principiului multiplicarii, n Cak Cbnk moduri. Probabilitatea cautata este
Cak Cbnk
.
n
Ca+b
Exemplul 1.7.4 La o tombola sunt 400 bilete dintre care 4 castigatoare. O persoana
cumpara 10 bilete. Care este probabilitatea sa nu se gaseasca nici un bilet castigator?
Avem
a = 4, b = 396,
k = 0,

n k = 10,

p=

n = 10,

10
C40 C396
= 0, 903.
10
C400

In general, daca urna contine ai bile de culoarea ci , i = 1, m, probabilitatea de a obtine


n1 bile de culoarea c1 , n2 bile de culoarea c2 , . . . , nm bile de culoarea cm cand facem
n = n1 + n2 + . . . + nm extractii, este egala cu
Can11 Can22 . . . Canmm
.
Can1 +a2 +...+am
Exemplul 1.7.5 O urna contine 7 bile albe, 7 bile negre si 6 verzi. Se extrag 9 bile.
Care este probabilitatea sa obtinem cate 3 de fiecare culoare?
Avem
a1 = 7, a2 = 7, a3 = 6,
n1 = 3,
p=

n2 = 3,

n3 = 3,

C73 C73 C63


= 0, 145.
9
C20

mp de probabilitate
Ca

30

1.8

C
amp infinit de probabilitate

In numeroase cazuri practice nu este cu putinta sa evaluam numarul cazurilor egal


posibile si al celor favorabile pentru determinarea probabilitatii evenimentului care ne
intereseaza. Asemenea situatii apar n studiul fenomenelor economice si sociale, n efectuarea controlului statistic al productiei etc. Deci definitia clasica a probabilitatii nu este
satisfacatoare cand multimea evenimentelor elementare este infinita.
In acest caz definim campul infinit de evenimente astfel :
Definitia 1.8.1 O multime de evenimente { E, K },K = , se numeste camp infinit de
evenimente dac
a:
a) A K A K;
An K.

b) (An )nIN K
nIN

Consecinte care rezultata din definitie :


C1. K si E K.
Intr-adevar, deoarece K = A K A K A A K E K
E K E K K.
C2. Orice reuniune finita de evenimente din K este n K.
Intr-adevar, fie A1 , A2 , . . . , An K si luam Ai = pentru i > n. Conform b),

Ai =
i=1

Ai K
i=1

C3. Orice intersectie (finita sau numarabita) de elemente din K este de asemenea n K.
Fie I o multime de indici finita sau numarabila
Ai K

Ai =
iI

iI

Ai K
iI

K).
C4. Daca A, B K atunci A \ B K (deoarece A \ B = A B
C5. Daca (An )nIN K atunci
lim inf An K;
n

lim sup An K.
n

T
inem seama de definitia limitei inferioare, respectiv superioare, de consecintele C2,
C3 si obtinem

lim inf =
n

(
n=1 k=n

Ak ) K;

lim sup =
n

(
n=1 k=n

Ak ) K.

mp de probabilitate
Ca

31

C6. Daca (An )nIN K, atunci lim An K, daca aceasta limita exista. In acest caz
n

lim An = lim inf An = lim sup An K.

Observatia 1.8.1 Intr-un camp infinit de evenimente sunt permise operatiile clasice cu
multimi.
Pentru a introduce notiunea de probabilitate n asemenea cazuri, definim notiunea de
masura a unui eveniment al unui camp infinit de evenimente.
Definitia 1.8.2 Se numeste masura a unui eveniment A al campului infinit de evenimente { E, K } o functie
m : K IR
care satisface urmatoarele axiome:
a) A K : m(A)

0;

b) m() = 0;
c) m(

Ai ) =
iI

m(A) pentru (Ai )iI K cu Ai Aj = i = j i, j I, iar I o


iI

multime cel mult numarabil


a de indici.
Observatia 1.8.2 Axioma c) se numeste axioma aditivitatii complete a masurii m. In
aceasta axioma intervine o reuniune numarabila de evenimente, lucru despre care se poate

vorbi numai n cazul n care campul de evenimente este infinit. Introducem

Ai ca fiind
i=1

evenimentul care consta n realizarea a cel putin unuia din evenimentele A1 , A2 , . . . , An , . . ..

Analog, evenimentul

Ai consta n realizarea tuturor evenimentelor A1 , A2 , . . . , An . . ..


i=1

Acceptarea axiomei c) este justificata; ea reprezinta o extindere naturala a proprietatii


corespunzatoare din campurile finite de evenimente.
Observatia 1.8.3 Cand An+1 = An+2 = . . . = se obtine aditivitatea finita a masurii
n

m(
i=1

Ai ) =

m(Ai ).
i=1

Observatia 1.8.4 Din multimea functiilor de evenimente care satisfac axiomele a)-c)
intereseaza numai acelea pentru care m(E) < , E fiind evenimentul cert.
a m(E) < atunci pentru orice eveniment A avem m(A) < .
Propozitia 1.8.1 Dac
= m(A)+m(A)
= m(E) < .
Demonstratie. Deoarece A A = E, A A = m(A A)

Dar m(A)
0 m(A) m(E) < m(A) < .

mp de probabilitate
Ca

32

Definitia 1.8.3 Fie un camp infinit de evenimente { E, K }. Se numeste probabilitatea


evenimentului A K, masura m(A) pentru care m(E) = 1
Definitia 1.8.4 Se numeste functie de probabilitate acea masur
a a evenimentelor definit
a pe campul infinit de evenimente {E,K} care satisface proprietatea m(E) = 1.
Definitia 1.8.5 Se numeste camp borelian (infinit) de probabilitate un camp infinit de
evenimente { E, K } pe care s-a definit o functie de probabilitate P. Un camp infinit de
probabilitate se noteaz
a { E, K, P }.
Problema cum trebuie determinata probabilitatea unui eveniment nu poate fi rezolvata
n general deoarece ea depinde n mod esential de natura fenomenului studiat.
Exemplul 1.8.1 De exemplu, ne vom referi la probabilitatile geometrice. Fie E IRn
un domeniu. Un punct M E, luat la ntamplare, se numeste punct aleator. Fie o
submultime A E. Prin masura lui A putem ntelege lungimea, aria sau volumul lui A.
Daca admitem ipoteza ca n cazul n care A, B E si m(A) = m(B) A = B sunt
echivalente din punct de vedere al ariei, indiferent de forma domeniilor A si B, putem
scrie
P (M A) = km(A)
unde k este un factor constant. Pentru ntreg domeniul E avem evenimentul sigur, deci
P (M E) = 1 = km(E)
de unde

1
m(E)

k=
si deci obtinem probabilitatea

P (M A) =

m(A)
.
m(K)

In cazul considerat, daca A nu are decat un numar finit de puncte, P (M A) = 0.


Exemplul 1.8.2 Vom arata cum se pote construi o functie de probabilitate pentru orice
multime numarabila E = {e1 , e2 , . . . , en , . . .}. Fiecarui punct ei i atasam un numar pi
satisfacand conditiile

i IN :

pi

0,

pi = 1
i=1

Fie K = P(E) si A o submultime a lui E. Definim


P (A) =

pi =
ei A

P (ei )
ei A

Constatam imediat ca { E, K, P } este un camp infinit de probabilitate.


Dam un exemplu de camp de probabilitate.

mp de probabilitate
Ca

33

Exemplul 1.8.3 Fie B corpul borelian generat de multimea partilor deschise de pe axa
reala IR si o functie f definita pe E B cu valori n IR, integrabila n raport cu masura
Lebesque [vezi 22] si care ndeplineste conditiile
f (x)

0,

f (x)dx = 1.
E

Se verifica imediat ca { E, K, P } este un camp borelian de probabilitate, unde


K = {A E, A B},
iar
P (A) =

f (x)A (x)dx
E

pentru A K, unde
A (e) =

1,
0,

daca e A,
dac
ae
/ A,

In particular, daca f este continua, punem


P (A) =

f (x)dx.
A

Se demonstreaza ca P satisface toate axiomele probabilitatii. Astfel de functii se pot gasi.


De exemplu
1
1 x2

f (x) =
sau
f
(x)
=
e 2.
(1 + x2 )
2
In campurile infinite de probabilitate se pastreaza notiunile si proprietatile din campurile finite de probabilitate.
1. Probabilitatea conditionata se defineste plecand de la relatia
P (A|B) =

P (A B)
, daca P (B) = 0.
P (B)

Se poate demonstra ca tripletul { E, K, PB } este un camp borelian de probabilitate.


Intr-adevar,
P (A|B)

0 deoarece P (A B)

0 si P (B) > 0.

Daca A = E atunci, deoarece E B = B, rezulta


P (E|B) =

P (B)
= 1.
P (B)

Daca (Ai )iI K este o familie cel mult numaarbila de evenimente incompatibile doua cate doua, atunci si evenimentele (A Ai )iI sunt incompatibile doua
cate doua si
P (B (
P(

Ai |B) =
iI

P(

Ai ))
iI

P (B)

(B Ai ))
iI

P (B)

mp de probabilitate
Ca

34
P (B Ai )
=

iI

P (B)

P (Ai |B).
iI

2. Formula probabilitatii totale si formula lui Bayes raman valabile daca consideram
sisteme complete de evenimente numarabile. Fie (Ai )iI K o familie cel mult
Ai = E si P (Ai ) =
numarabila de evenimente incompatibile doua cate doua cu
iI

0, i I, atunci
P (A) =

P (Ai )P (A|Ai )
iI

si

P (Ai )P (A|Ai )

P (Ai |A) =

P (Aj )P (A|Aj )

i I.

jI

Definitia 1.8.6 Se spune ca evenimentele (An )nIN K sunt independente daca orice
num
ar finit de evenimente din acest sir este independent.
Exista si proprietati noi ale functiei de probabilitate P cum ar fi urmatoarele:
Propozitia 1.8.2 Fie (An )nIN K si P o functie de probabilitate. Atunci
P(

An )
nIN

P (An ).
nIN

Demonstratie. Introducem un sir de evenimente din K n felul urmator:


A1 = A1
A2 = A2 \ A1

An+1 = An+1 \ (

Aj ).

j=1

Evenimentele (An )nIN prin modul n care au fost construite sunt incompatibile doua
cate doua; n plus An An , n IN . Demonstram ca
An =
nIN

An

Evident
nIN

An .
nIN

An .
nIN

Demonstram incluziunea contrara. Fie e


n pentru care e An0 ; rezulta deci

An si n0 cel mai mic numar natural


nIN

e An0

An ,
nIN

mp de probabilitate
Ca

35
An

An

nIN

nIN

adica ceea ce trebuia de demonstrat. De aici rezulta ca


P(

An ) = P (

nIN

An ) =

nIN

P (An )
nIN

P (An )
nIN

datorita proprietatilor de aditivitate si monotonie a probabilitatii.


Propozitia 1.8.3 Inegalitatea lui Boole. Daca (Ai )iI K este o multime cel mult num
arabil
a de evenimente, atunci
P(

Ai )

P (Ai ).

iI

iI

Demonstratie. Din relatiile lui De Morgan avem


Ai )

Ai = (
iI

iI

deci
P(

Ai ) = 1 P (

Ai ) = P (
iI

iI

dar

iI

Ai )

P(

Ai )

P (Ai )

iI

iI

si obtinem inegalitatea dorita.


Definitia 1.8.7 Un sir de evenimente (An )nIN este ascendent (descendent) daca Aj
()Ai pentru j < i, i, j IN , i = j.
Propozitia 1.8.4 Fie (An )nIN un sir descendent de evenimente din K. Daca A =
An , atunci
nIN

lim P (An ) = P (

An ) = P (A).

nIN

Demonstratie. a) Consideram cazul n care A = . Trebuie sa aratam ca


lim P (An ) = 0.

Deoarece (An )nIN este un sir descendent, putem scrie


An = (An \ An+1 ) (An+1 \ An+2 ) . . .
si deci An apare ca o reuniune de evenimente incompatibile, caci
(An+k \ An+k+1 ) (An+s \ An+s+1 ) =

mp de probabilitate
Ca

36
daca k = s si obtinem

P (An ) =

P (Ai \ Ai+1 ) =
i=n

iar seria

(P (Ai ) P (Ai+1 )),


i=n

P (Ai \ Ai+1 ) = P (A1 )


i=1

este convergenta, deci restul seriei converge la zero cand n , deci lim P (An) = 0.
n

b) Consideram cazul A = . Vom introduce evenimentele Cn = An \ A, n IN , care


reduc acest caz la cazul precedent. Sirul (Cn )nIN este un sir descendent si deoarece

Cn = , rezulta, conform cazului a) ca


n=1

lim P (Cn ) = 0

Dar
P (Cn ) = P (An \ A) = P (An ) P (A)
si deci
lim P (An ) = P (A).

Propozitia 1.8.5 Fie (An )nIN un sir ascendent de evenimente din K. Daca A =
An , atunci
nIN

lim P (An ) = P (

An ) = P (A).

nIN

Demonstratie. Trecem la evenimentele complementare; sirul (An )nIN este descendent,


se transforma n si se aplica propozitia 1.8.4.
Definitia 1.8.8 Fie () o proprietate descrisa de o propozitie formulata ntr-un camp
borelian de probabilitate {E, K, P }. Daca toate evenimentele elementare care nu implica
proprietatea () formeaz
a un eveniment de probabilitate nula atunci vom spune ca ()
este adevarat
a aproape sigur.
Observatia 1.8.5 In campuri infinite de probabilitate pot exista evenimente diferite de
evenimentul imposibil si care sa aiba probabilitatea nula.
Exemplul 1.8.4 Fie un ceas si presupunem ca acele sale se opresc la ntamplare. Sa se
determine probabilitatea ca minutarul sa se opreasca n dreptul uneia din cele 12 cifre ale
cadranului este nula.
Aceata rezulta din observatia ca probabilitatea ca minutarul sa se opreasca ntr-un
segment al circumferintei cadranului este proportionala cu lungimea acestuia. Ori cele 12
cifre ale cadranului alcatuiesc o multime formata din 12 puncte ale circumferintei, fiecare
din acestea fiind asimilat cu un segment de o lungime nula. Evident, nu este exclus ca
minutarul sa se opreasca n dreptul unei cifre. Proprietatea minutarul nu se opreste n
dreptul unei cifre a cadranului este o proprietate aproape sigura.

mp de probabilitate
Ca

1.9

37

Probleme propuse

Problema 1.1 Se joaca un joc. Partida este considerata castigata de primul dintre cei
doi jucatori care castiga trei jocuri. Daca jocul se ntrerupe la scorul de 2-1, cum trebuie
mpartita miza?
Solutie. La prima vedere s-ar parea ca miza trebuie mpartita n trei parti egale si
castigatorul ia doua parti. Corect este ca miza sa fie mpartita proportional cu probabilitatea pe care o are fiecare jucator de a castiga partida, daca acesta ar fi continuat.
Sa presupunem ca se mai joaca doua jocuri (indiferent de rezultatul primului joc).
Notam cu 1 daca jucatorul a castigat partida si cu 0 daca a piedut-o. Prin notatia (1,
0) ntelegem ca primul jucator a castigat prima partida iar al doilea nu a piedut a doua
partida. Sunt urmatoarele posibilitati: (1, 1), (1, 0), (0, 1) si (0, 0), din care rezulta ca
primul jucator, care conduce cu 2-1, are trei sanse si al doilea una singura. Miza trebuie
mpartita n patru parti egale si primul jucator ia trei parti, iar al doilea o parte.
Problema 1.2 Un student are de raspuns la n ntrebari, carora trebuie sa le asocieze
raspunsul corect dintre n raspunsuri indicate. Stabiliti probabilitatea ca studentul sa
raspunda la:
a) prima ntrbare;
b) primele doua ntrebari;
c) cel putin o ntrebare.
Indicatie. a) numatul cazurilor posibile: n!, numarul cazurilor favirabile (n 1)!,
probabilitatea cautata: 1/n;
b) 1/(n 2)!;
c) daca notam cu Ai evenimentul ca studentul raspunde corect la ntrebarea i, evenimentul cautat este A1 A2 . . . An . Folosind formula (1.9) obtinem: 1 1/2! + 1/3!
. . . + (1)n1 1/n!.
Problema 1.3 Evenimentul A consta n aparitia cel putin o data a fetei 5 aruncand
un zar de 4 ori, iar evenimentul B consta n aparitia fetei 5 cel putin de doua ori, aruncand
de 18 ori cate doua zaruri. Care din cele doua evenimente este cel mai probabil?
Indicatie. Se poate interpreta aparitia fetei 5 a unui zar ca o urna cu doua stari, una
5 4
5 4

fata cu cu 5 cu probabilitatea q = 5/6. P (A) = ( ) , P (A) = 1 ( ) . Deoarece


6
6
aruncarile sunt independete, n loc sa aruncam de 18 ori cate doua zaruri, putem arunca
36 de zaruri o singura data.
= ( 5 )36 + 36 1 ( 5 )35 .
P (B)
6
6 6
Avem

5 41
( )35

P (B)
6 < 7( 5 )31 < 1.
= 6

5
6
P (A)
( )4
6

Problema 1.4 Un calculator este format din n componente. Probabilitatea ca o


componenta i sa se nu defecteze n perioada de timp T este pi , i = 1, n. Componentele se

mp de probabilitate
Ca

38

defecteaza independent unele de celelalte. Sa se calculeze probabilitatea ca n perioada


de timp T calculaterul sa se defecteze. (Defectarea unei componente conduce la oprirea
calculatorului.)
Solutie. Caculam probabilitatea evenimentului contrar, adica n perioada de timp T
calculatorul sa functioneze. Aceasta nseamna ca toate componentele sa nu se defecteze,
n

iar probabilitatea acestui eveniment este

pi . Probabilitatea cautata va fi 1
i=1

pi .
i=1

Problema 1.5 Un circuit electric are patru relee a caror functionare este egal probabila (functioneaza si se pot defecta independent unul de celalalt), montate dupa Figura
1.1. Calculati probabilitatea ca ntre punctele A si B sa nu circule curentul.
Solutie. Ntoam cu Ai evenimentul releul Ri este defect. Curentul nu circula atunci
cand se realizeaza evenimentul
((A1 A2 ) A4 ) A3 = (A1 A4 ) (A2 A4 ) A3 .
Cum orice releu poate fi n doua pozitii, nchis sau deschis, rezulta ca numarul cazurilor
posibile este 24 = 16.
Probabilitatea cautata este 2 4/16 8/16 3 2/16 + 1/16.
Problema 1.6 Trei mesaje sunt transmise pe un canal de comunicare, pe fiecare dintre
ele putand fi transmis cu o anumita exactitate. Transmiterea unui mesaj poate conduce
la unul din urmatoarele evenimente:
a) A1 = { mesajul este transmis ntr-o forma corecta }.
b) A2 = { mesajul este partial eronat }.
c) A3 = { mesajul este complet eronat }.
Probabilitatile evenimentelor A1 , A2 , A3 sunt date si anume egale cu p1 , p2 si p3 , (p1 +
p2 + p3 = 1). Considerand ca transmiterea corecta sau eronata a unui mesaj nu este
influentata de modul de transmitere a celorlalte (independenta evenimentelor), sa se
gaseasca probabilitatle urmatoarelor evenimente:
i) A = { toate mesajele sunt transmise corect }.
ii) B = { cel putin un mesaj sa fie complet eronat }.
iii) C = { cel putin doua mesaje sunt partial sau complet eronate }.
Solutie. Notam urmatoarele evenimente astfel:
A11 = { primul mesaj transmis este corect },
A12 = { al doilea mesaj transmis este corect },
A13 = { al treilea mesaj transmis este corect },
A21 = { primul mesaj transmis este partial eronat },
A22 = { al doilea mesaj transmis este partial eronat },
A23 = { al treilea mesaj transmis este partial eronat },
A31 = { primul mesaj transmis este complet eronat },

mp de probabilitate
Ca

39

A32 = { al doilea mesaj transmis este complet eronat },


A33 = { al treilea mesaj transmis este complet eronat }.
Avem P (A11 ) = P (A12 ) = P (A13 ) = p1 , P (A21 ) = P (A22 ) = P (A23 ) = p2 , P (A31 ) =
P (A32 ) = P (A33 ) = p3 . Evenimentul A nseamna ca primul mesaj transmis este corect
si al doilea mesaj transmis este corect si al treilea mesaj transmis este corect, adica
A = A11 A12 A13 si deoarece evenimentele sunt independente (conform presupunerii
facute) avem P (A) = p31 . Complementarul evenimentului B este: toate mesajele sunt sau
corecte sau partial eronate, deci B = (A11 A12 )(A21 A22 )(A31 A32 ). Probabilitatea
acestui eveniment este (p1 + p2 )3 , iar P (B) = 1 (p1 + p2 )3 . Evenimentul C este compus
din reuniunea evenimentelor: (primul mesaj este corect si al doilea mesaj este partial sau
complet eronat si al treilea mesaj este partial sau complet eronat) sau (primul mesaj este
partial sau complet eronat si al doilea mesaj este corect si al treilea mesaj este partial sau
complet eronat) sau (primul mesaj este partial sau complet eronat si al doilea este partial
sau complet eronat si al treilea mesaj este corect) sau (toate cele trei mesaje sunt partial
sau complet eronate), adica C = (A11 ((A22 A32 ) (A23 A33 ))) ((A21 A31 ) A12
(A23 A33 )) ((A21 A31 ) (A22 A32 ) A31 ) ((A21 A31 ) (A22 A32 ) (A23 A33 )).
Probabilitatea acestui eveniment este P (C) = 3(p2 + p3 )2 p1 + (p2 + p3 )3 .
Problema 1.7 Un mesaj important este transmis simultan pe n canale de comunicatie
si repetat pe fiecare canal de k ori pentru a usura receptionarea sa corecta. Probabilitatea ca n timpul transmisiei unui mesaj acesta sa fie eronat este p si nu depinde de
transmiterea altor mesaje. Fiecare canal de comunicatie poate fi blocat cu zgomote
cu probabilitatea q; un canal blocat nu poate transmite nici-un fel de mesaje. Sa se
calculeze probabilitatea evenimentului
A = { un mesaj este transmis sub forma corecta macar odata }.
Solutie. Introducem evenimentul:
B = { un mesaj este transmis pe un canal de comunicatie fara nici o eroare macar
odata }.
Pentru ca sa aiba loc evenimentul B mai ntai canalul nu trebuie sa fie blocat cu
zgomote si apoi macar unul din cele k mesaje transmise nu trebuie sa fie eronat (contrar
evenumentului ca toate cele k mesaje transmise sunt eronate). Obtinem P(B) = (1q)(1pk).
Probabilitatea evenimentului A, eveniment care nseamna ca evenimentul B s-a produs
macar odata pe un canal, este P (A) = 1 (1 P (B))n = 1 (1 (1 q)(1 pk ))n .
Problema 1.8 Un mesaj format din cifrele 0 si 1 este transmis. Fiecare simbol poate
fi transmis eronat cu probabilitatea p (este schimbat n contrarul sau cu probabilitatea q).
Pentru siguranta, mesajul este transmis de doua ori; informatia este considerata corecta
daca ambele mesaje coincid. Sa se calculeze probabilitatea ca mesajul sa nu fie corect, n
ciuda faptului ca cele doua mesaje transmise sunt identice.
Solutie. Evenimentul ca mesajul sa nu fie corect este contrar evenimentului ca ambele
mesaje sunt corecte. Probabilitatea ca un mesaj transmis sa fie corect este (1 p)n ,
probabilitatea ca ambele mesaje sa fie corecte este (1 p)2n , iar probabilitatea cautata
este 1 (1 p)2n .
Problema 1.9 Fie opt canale de transmitere a informatiei care functioneaza independent. Presupunem ca un canal este activ cu probabilitatea 1/3. Sa se calculeze
probabilitatea ca la un moment dat sa fie mai mult de sase canale active.

mp de probabilitate
Ca

40

Solutie. Pentru i = 1, . . . , 8 fie Ai evenimentul: canalul i este activ. Numarul


canalelor active este egal cu numarul de realizari ale evenimentelor Ai , i = 1, . . . , 8, n opt
experiente Bernoulli cu p = 1/3. Atunci probabilitatea ca mai mult de sase canale sa fie
active este
P (k = 7) + P (k = 8) = C87 (1/3)7 (2/3) + C88 (1/3)8 = 0, 0024 + 0, 00015 = 0, 00259

Problema 1.10 Un bloc de 100 de biti este transmis pe un canal de comunicatie binar
cu probabilitatea de eroare pe bit 103 . Sa se gaseaca probabilitatea ca blocul sa contina
trei sau mai mult de trei erori.
R:1.5 104 .
Problema 1.11 Un asamblor de calculatoare foloseste circuite din trei surse: A, B
si C. Ele pot fi defecte cu probabilitatile de respectiv 0,001, 0,005 si 0,01. Daca se ia un
circuit la ntmplare si se constata ca este defect, care este probabilitatea ca el sa provina
de la sursa A sau B.
Solutie. Fie A1 evenimentul ca circuitul sa provina de la sursa A, A2 de la sursa B
si A3 sa provina de la sursa C. Fie D evenimentul ca circuitul folosit sa fie defect, iar
D|Ai , i = 1, 2, 3 evenimentul ca circuitul folosit sa fie defect stiind ca el provine de la sursa
A, B si respectiv C. Avem
P (D|A1 ) = 0, 001, P (D|A2 ) = 0, 005, P (D|A3 ) = 0, 01
Folosind formula lui Bayes (1.12) obtinem
P (A1 |D) = 1/16, P (A2 |D) = 10/16.
Deoarece evenimentele A1 |D si A2 |D sunt incompatible, rezulta
P (A1 A2 |D) = P (A1 |D) + P (A2 |D) = 11/16 = 0, 6875.

Problema 1.12 Multe sisteme de comunicatie pot fi modelate n felul urmator: mai
ntai utilizatorul introduce 0 sau 1 n sistem si semnalul corespunzator este transmis; n
al doilea rand ia o decizie asupra a ceea ce s-a introdus n sistem pe baza semnalului
receptionat. Presupunem ca utilizatorul transmite 0 cu probabilitatea 1 p si 1 cu probabilitatea p si ca cel ce receptioneaza ia o decizie eronata cu probabilitatea . Pentru
i = 0, 1 fie Ai evenimentul ca la intrare s-a introdus i si Bi evenimentul ca decizia celui
ce receptioneaza a fost i. Sa se calculeze probabilitatile P (Ai Bj ) pentru i = 0, 1 si
j = 0, 1.
Presupunem ca probabilitatile ca la intrare sa se transmita 0 sau 1 sunt egale cu 1/2.
Sa se calculeze probabilitatea evenimentului B1 . Dar probabilitatea de a se fi transmis 0
stiind ca s-a receptionat 1? Dar probabilitatea de a se fi transmis 1 stiind ca s-a receptionat
1?
Solutie.

mp de probabilitate
Ca

41

Se obtin probabilitatile
P (A0 B0 ) = (1 p)(1 )
P (A0 B1 ) = (1 p)
P (A1 B0 ) = p
P (A1 B1 ) = p(1 ).
Evenimentele A1 si A2 formeaza un sistem complet de evenimente pentru spatiul de selectie
E = {0, 1}. Pentru a calcula probabilitatea evenimentului B1 aplicam formula probabilitatii totale:
P (B1 ) = P (A0 )P (B1 |A0 ) + P (A1 )P (B1 |A1 ) = 1/2 + 1/2(1 ) = 1/2.
Aplicand formula lui Bayes obtinem probabilitatile (pe care le-am mai numit posteori);
P (B1 |A0 )P (A0 )
/2
=
=
P (B1 )
1/2
P (B1 |A1 )P (A1 )
(1 )/2
P (A1 |B1 ) =
=
= 1 .
P (B1 )
1/2

P (A0 |B1 ) =

Daca este mai mic decat 1/2 atunci este mai probabil ca la intrare sa avem 1 decat 0
daca la iesire s-a primit semnalul 1.
Problema 1.13 Un sistem consta dintr-o unitate centrala si trei unitati periferice.
Sistemul functioneaza la capacitate optima daca unitatea centrala si doua unitati periferice functioneaza. Sa se calculeze probabilitatea ca sistemul sa functioneze la capacitate
optima presupunand ca defectarea unitatilor se face independent una de cealalta.
Solutie. Definim urmatorele evenimente: A-unitatea centrala functioneaza; Bi -unitatea periferica i functioneaza, unde i = 1, 2, 3. Evenimentul F -doua sau mai multe unitati
periferice functioneaza nseamna ca toate trei unitatile periferice functioneaza sau exact
doua unitati periferice functioneaza. Astfel:
3 ) (B1 B
2 B3 ) (B
1 B2 B3 )
F = (B1 B2 B
(B1 B2 B3 ).
Observam ca evenimentele de mai sus din paranteze sunt indepandente ntre ele si deci
3 ) + P (B1 )P (B
2 )P (B3 )+
P (F ) = P (B1 )P (B2 )P (B
1 )P (B2 )P (B3 ) + P (B1 )P (B2 )P (B3 ) =
+P (B
= 3(1 a)2 a + (1 a)3
unde s-a presupus ca fiecare periferic se defecteaza cu probabilitatea egala cu a, astfel ncat
i ) = a. Evenimentul sistemul functioneaza la capacitate optima
P (Bi ) = 1 a si P (B
este A F . Daca presupunem ca unitatea centrala se defecteaza cu probabilitatea p,
atunci:
P (A F ) = P (A) P (F ) = (1 p)P (F ) = (1 p)3(1 a)2 a + (1 a)3 .
Fie a = 10%, atunci toate cele trei periferice sunt functionale (1 a)3 = 72, 9% din timp
iar doua sunt functionale si una defecta 3(1 a)2 a = 24, 3% din timp. Astfel doua sau

mp de probabilitate
Ca

42

mai multe, periferice functtioneaza 97, 2% din timp. Presupunem ca unitatea centrala nu
este foarte buna, si anume p = 20%, atunci sistemul functioneaza la capacitate optima
numai 77, 8% din timp, aceasta datorita faptului ca unitatea centrala se defecteaza.
Presupunem ca s-a introdus n sistem o a doua unitate centrala identica cu prima,
adica p = 20% si sistemul functioneaza la capacitate optima daca macar una din cele doua
unitati centrale functioneaza. Sa calculam cat la suta din timp functioneaza sistemul n
acest caz. Definim evenimentele Ai -unitatea centrala i = 1, 2 functioneaza. Evenimentul
sistemul functioneaza la capacitate optima este, n acest caz, (A1 F )(A2 F ). Atunci
P [(A1 F ) (A2 F )] = P (A1 F ) + P (A2 F )
P [(A1 F ) (A2 F )] = P (A1 ) P (F ) + P (A2 ) P (F ) P (A1 A2 F ) =
= P (A1 ) P (F ) + P (A2 ) P (F ) P (A1 ) P (A2 ) P (F ) =
= 2(1 p)3(1 a)2 a + (1 a)3 (1 p)2 3(1 a)2 a + (1 a)3 = 93, 3%
Aceasta a condus la o crestere de 15.5% a timpului de functionare fata de cazul n care
sistemul functiona cu o singura unitate centrala.
Problema 1.14 Un sistem de comunicatie transmite informatie bimara pe un canal
care introduce la transmiterea unui bit erori aleatoare cu probabilitatea = 103 . Fiecare
bit este transmis de trei ori si n functie de semnalul majoritar receptionat se decide
informatia ca fiind cea transmisa. Sa se calculeze probabilitatea ca decizia luata sa fie
incorecta.
Solutie. Cel ce receptioneaza va lua o decizie eronata daca canalul introduce doua
sau mai multe erori. Daca privim fiecare transmitere ca o experienta Bernoulli n care
realizarea evenimentului corespunde introducerii unei erori, atunci probabilitatea de a se
produce doua sau mai multe erori n trei experiente Bernoulli este
P [k

2] = C32 (0, 001)2 (0, 999) + C33 (0, 001)3 3 106

Problema 1.15 O informatie telegrafica consta din semnale liniute si puncte.


In medie se deformeaza 2/5 din semnalele cu puncte si liniute. Este cunoscut ca
semnalele puncte si liniute se ntalnesc n raportul 5/3.
Sa se determine probabilitatea ca:
a) primind un semnal consacrat, acesta sa fie punct si
b) probabilitatea ca el sa fie liniuta.
Solutie. Notam cu A evenimentul de primire a semnalului punct, iar prin B evenimentul de primire a semnalului liniuta. Se pot considera urmatoarele ipoteze: H1 este
transmis semnalul punct, H2 este transmis semnalul liniuta. Avem
5
P (H1 )
= , P (H1 ) + P (H2 ) = 1.
P (H2 )
3
deci

3
5
P (H1 ) = , P (H2 ) =
8
8

mp de probabilitate
Ca

43

si

3
1
2
2
P (A|H1 ) = , P (A|H2 ) = , P (B|H1 ) = , P (B|H2 ) = .
5
3
5
3
Folosind formula probabilitatii totale obtinem:
P (A) =

53 31
1
52 32
1
+
= , P (B) =
+
= .
85 83
2
85 83
2

Avem cele doua probabilitati:


a) P (H1 |A) =

P (H1 )P (A|H1 )
3
= ,
P (A)
4

b) P (H2 |B) =

P (H2 )P (B|H2 )
1
= .
P (B)
2

44

mp de probabilitate
Ca

Capitolul 2
Variabile aleatoare discrete
2.1

Definitia si clasificarea variabilelor aleatoare

Una din notiunile fundamentele ale teoriei probabilitatilor este cea de variabila aleatoare.
Teoria clasica a probabilitatilor opereaza, n principal, cu evenimente, iar teoria moderna
prefera, unde este posibil, sa studieze variabile aleatoare.
Fie { E,K,P } un camp borelian de probabilitate care a fost definit n Capitolul 1.8.
Definitia 2.1.1 Functia
X : E IR
se numeste variabila aleatoare daca
x IR

{e E | X(e) < x} K.

(2.1)

Pentru simplitate, vom nota {e E | X(e) < x} = {X < x}.


Observatia 2.1.1 Nu este obligatoriu X(E) = IR, deci X(E) IR; X(E) reprezinta
multimea valorilor variabilei aleatoare.
Dupa proprietatile multimii valorilor variabilei aleatoare, adica dupa proprietatile multimii X(E), clasificam variabile aleatoare astfel:
variabile aleatoare de tip discret, daca X(E) este cel mult numarabila; daca X(E)
este finita, variabila aleatoare se numeste discreta simpla, iar daca X(E) este infinita, dar numarabila, variabila aleatoare se numeste discreta cu o infinitate de
valori.
variabile aleatoare de tip continuu, daca X(E) este o multime infinita de numere
reale.
Exemple de variabile aleatoare discrete:
variabile aleatoare ale carei valori reprezinta numarul de apeluri zilnice primite la o
centrala telefonica,
variabila aleatoare ale carei valori reprezinta numarul de ruperi de fire la o masina
de cusut,
45

46

Variabile aleatoare discrete


variabila aleatoare ale carei valori reprezinta numarul de puncte aparute pe o fata
a zarului, la aruncarea unui zar.

Exemple de variabile aleatoare de tip continuu:


timpul de functionare a unui aparat, pana la prima defectare,
marimile erorilor comise la efectuarea masuratorilor,
viteza unei particule, care se modifica n functie de ciocnirile cu alte particule.
In fiecare din aceste exemple, unui fenomen, supus unor circumstante aleatoare, i se
asociaza un numar real, deci se stabileste o corespondenta ntre spatiul de selectie E convenabil ales si IR. In practica, de multe ori este dificil sa gasim valorile acestor corespondente,
dar e posibil sa determinam cat de des sunt luate ele. Astfel, n ultimul exemplu, putem
aprecia cu ce probabilitate viteza X a particulei este mai mica decat 0,1, deci putem
calcula P ({ e E | X(e) < 0, 1 }).
Definitia 2.1.2 Functia
F : IR [0, 1]
definit
a prin
F (x) = P ({ e E | X(e) < x})

(2.2)

se numeste functie de repartitie.


Determinarea pentru orice x IR a probabilitatii cu care X ia valori mai mici ca x,
nseamna definirea functiei de repartitie.

2.2

Variabile aleatoare discrete simple

Conditia (2.1) din Definitia 2.1.2 are loc ntotdeauna n cazul variabilelor aleatoare discrete, alegand eventual un camp borelian convenabil. In cest caz putem spune ca:
a.
Definitia 2.2.1 Fie { E, K, P } un camp de probabilitate cu E cel mult numarabil
Se numeste variabila aleatoare orice aplicatie X definita pe multimea evenimentelor elementare cu valori n multimea numerelor reale IR.
Ilustram trecerea de la eveniment la variabila aleatoare.
Exemplul 2.2.1 Consideram o experienta si un eveniment A legat de aceasta. In loc de
evenimentul A putem considera functia A care ia valoarea 1 daca s-a realizat A si 0 daca
adica daca A E, A K:
s-a realizat A,
A : E {0, 1}
A (e) =

1, daca e A
0, daca e
/ A.

Functia A se numeste indicatoarea evenimentului A (variabila aleatoare a evenimentului


A).

Variabile aleatoare discrete

47

Aceasta idee poate fi extinsa n sensul ca putem considera o experienta si legat de


aceasta un sistem complet de evenimente (Ai )16i6n . Definim functia X pe acest sistem
complet de evenimente convenind sa-i atribuim valoarea n j n cazul n care s-a realizat
evenimentul Aj , j = 1, n. Astfel, variabila aleatoare X s-a definit prin relatia:
X(e) =

n j,
0,

daca e Aj
n rest

pentru j = 1, n.
Fie tabelul
X:

x 1 x2 . . . x n
p1 p2 . . . pn

(2.3)

cu pi

0, i = 1, n,

pi = 1. Numerele xi se numesc valorile variabilei aleatoare,


i=1

iar pi probabilitatile cu care variabila aleatoare ia aceste valori. Tabelul 2.3 se numeste
tabloul de repartitie al variabilei aleatoare X.
Facem conventia ca n tabloul de repartitie sa se treaca valorile variabilei aleatoare
distincte, iar valorile luate cu probabilitatea 0 sa nu fie trecute.
Observatia 2.2.1 Fie xk o valoare a variabilei aleatoare X. Valorii xk i corespunde, n
general, o multime de evenimente elementare. Rezolvand ecuatia xk = X(e) n raport
cu e obtinem e = X 1 (xk ), n general, o functie multivoca, deci la un xk pot corespunde
mai multe valori ale lui e. Reuniunea acestora formeaza un eveniment Ak al campului
(k n). Deoarece valorile xk sunt diferite, evenimentele Ak sunt incompatibile doua cate
doua si formeaza un sistem complet de evenimente. Observam ca
pk = P (Ak ) = P ({e E | X(e) = xk })
si

P (Ak ) = P (

pk =
k=1

k=1

Ak ) = P (E) = 1.

k=1

Deci data o variabila aleatoare, putem sa-i atasam un sistem complet de evenimente.
Reciproca afirmatiei este tocmai Exemplul 2.2.2.
Exemplul 2.2.2 Consideram experienta care consta n aruncarea unui zar omogen. Fie
variabila aleatoare X care ia ca valori numarul de puncte aparute pe fata zarului. Sa se
scrie tabloul de repartitie al acestei variabile aleatoare.
Multimea evenimentelor elementare este {1, 2, 3, 4, 5, 6} si ea coincide, n acest caz, cu E
X:

1 2 3 4 5 6
1 1 1 1 1 1
6 6 6 6 6 6

Daca consideram evenimentele A si B legate de aceeasi experienta si anume A evenimentul


care consta n obtinerea unui numar par de puncte, iar B evenimentul care consta n

48

Variabile aleatoare discrete

obtinerea un numar impar de puncte si definim variabila aleatoare Y care ia valoarea


0 daca am obtinut un numar par de puncte si 1 daca am obtinut un numar impar de
puncte, atunci A si B formeaza un sistem complet de evenimente si putem defini variabila
aleatoare Y astfel:
0 1
1 1 .
Y :
2 2
Exemplul 2.2.3 Consideram o experienta care consta n extragerea a trei bile, cate una
din fiecare din urnele U1 , U2 , U3 ce contin respectiv 2 bile albe si 3 negre, 3 bile albe si 5
negre, 8 bile albe si 2 negre. Definim variabila aleatoare X care ia ca valori numarul de
de bile albe obtinute la o extragere. Se cere tabloul de reparitie a lui X.
Notam cu Ai si Ai evenimentul de a extrage o bila alba, respectiv neagra din urna
Ui , i = 1, 3. Variabila aleatoare X poate lua valorile 0, 1, 2, 3 dupa cum s-au extras respectiv 0, 1, 2, 3 bile albe. Observam ca evenimentele Ai sunt independente si incompatibile
doua cate doua. Atunci putem calcula
3

P ({X = 0}) = P (
i=1

Ai ) =

P (Ai ) = 0, 075,
i=1

P ({X = 1}) = P ((A1 A2 A3 ) (A1 A2 A3 ) (A1 A2 A3 )) =


79
= P (A1 )P (A2 )P (A3 ) + P (A1 )P (A2 )P (A2 ) + P (A1 )P (A2 )P (A3 ) =
= 0, 395,
200
P ({X = 2}) = P ((A1 A2 A3 ) (A1 A2 A3 ) (A1 A2 A3 )) =
= P (A1 )P (A2 )P (A3 ) + P (A1 )P (A2 )P (A2 ) + P (A1 )P (A2 )P (A3 ) =
P ({X = 3}) = P (A1 A2 A3 ) = P (A1 )P (A2 )P (A3 ) =

41
= 0, 41,
100

3
= 0, 12,
25

Tabloul de repartitie este


X:

0
1
2
3
0, 075 0, 395 0, 41 0, 12

De cele mai multe ori n calcule este suficient sa cunoastem valorile pe care le ia o
variabila aleatoare si probabilitatile respective. Dar, n general, cunoasterea acestor date
nu este suficienta pentru determinarea completa a variabilei aleatoare, asa cum se va
vedea n exemplul urmator.
Exemplul 2.2.4 Consideram experienta care consta n aruncarea unui zar. Legat de
aceasta ne imaginam un joc: celui care arunca zarul i se acorda 1 punct daca apare una
din fetele cu 1 sau 2 puncte, 2 puncte daca apare una din fetele cu 3 sau 4 puncte, 3
puncte daca apare una din fetele cu 5 sau 6 puncte. Daca notam cu X variabila aleatoare

Variabile aleatoare discrete

49

care ia ca valori numarul de puncte obtinute de jucator la o aruncare a zarului, obtinem


o variabila aleatoare avand repartitia:
X:

1 2 3
1 1 1
3 3 3

Se considera alt joc n care se acorda 1 punct daca apare una din fetele cu 1 sau 6 puncte,
2 puncte daca apare una din fetele cu 2 sau 5 puncte, 3 puncte daca apare una din fetele
cu 3 sau 4 puncte. Obtinem analog o variabila aleatoare Y cu repartitia
Y :

1 2 3
1 1 1
3 3 3

Variabilele aleatoare discrete simple X si Y definite n acest exemplu nu sunt egale, dar au
acelasi tablou de repartitie. Intr-adevar, X(6) = 3 si Y (6) = 1. Experienta care consta
n aruncarea zarului genereaza un camp de probabilitate. Pe multimea evenimentelor
elementare ale lui E, X si Y sunt definite astfel:
X(1) = 1, X(2) = 1, X(3) = 2, X(4) = 2, X(5) = 3, X(6) = 3;
Y (1) = 1, Y (2) = 2, Y (3) = 3, Y (4) = 3, Y (5) = 2, Y (6) = 1.
Sa determinam sistemul complet de evenimente generat de fiecare din cele doua variabile aleatoare discrete simple. Variabila aleatoare discreta simpla X determina
A1 = {1, 2}, A2 = {3, 4}, A3 = {5, 6},
iar variabila aleatoare discreta simpla Y determina
B1 = {1, 6}, B2 = {2, 5}, B3 = {3, 4}.
Rezulta ca cele doua sisteme complete de evenimente sunt diferite si deci numai aparent
variabilele aleatoare discrete simple coincid.
Orice variabila aleatoare simpla data prin tabloul sau de repartitie se poate reprezenta
grafic prin poligonul sau de repartitie: pe axa absciselor se trec valorile variabilei aleatoare,
iar pe axa ordonatelor probabilitatile.
Pentru o variabila aleatoare discreta simpla se poate introduce functia de repartitie
care este o functie scara data de relata:

0,
daca x x1 ,

p
,
daca x1 < x x2 ,

p1 + p2 ,
daca x2 < x x3 ,
F (x) =
.
.
.

p + . . . + pn1 , daca xn1 < x xn ,

1
1,
daca xn < x.
In aceasta definitie am presupus, pentru simplitate, x1 < x2 < . . . < xn . Graficul acestei
functii este prezentat n Figura 2.1.

50

Variabile aleatoare discrete

Vom insista mai mult asupra proprietatilor functiei de repartitie n Capitolul 3. Sa


studiem F n unul din punctele de discontinuitate, fie x = x2 . Pentru IR+ oricat de
mic, avem
F (x2 + ) = P ({X < x2 + }) = p1 + p2
astfel ncat lim F (x) = p1 + p2 . Mai mult
x

x2

F (x2 ) = P ({X < x2 }) = p1


si
F (x2 ) = P ({X < x2 }) = p1 .
Rezulta ca functia de repartitie este continua la stanga. Functia de repartitie poate fi
scrisa restrans cu ajutorul functiei unitate (treapta unitate)
u(x) =

0, daca x 0,
.
1, daca x > 0,

Functia generalizat
a delta (t) (distributia Dirac) este definita cu ajutorul functiei unitate
astfel:
x
u(x) =
(t) dt

si deci
n

pk u(x xk ),

F (x) = p1 u(x) + p2 u(x x1 ) + . . . + pn u(x xn ) =


k=1

unde pk = P ({X < xk }). Putem introduce si n cazul discret (pentru cazul continuu se
poate consulta Capitolul 3) functia densitate de probabilitate tinand seama de legatura
dintre functia unitate si distributia Dirac. Astfel, tinand seama de faptul ca (vezi Capitolul
3.2, Formula (3.9)):
x

F (x) =

f (t) dt

obtinem densitatea de probabilitate pentru variabile aleatoare discrete


n

f (x) =

pk (x xk ).
k=1

Aceasta densitate de probabilitate este o functie generalizata (o distributie).


Operatii cu variabile aleatoare discrete simple.
Deoarece variabila aleatoare discreta simpla este o functie definita pe multimea evenimentelor elementare cu valori reale, putem vorbi de suma si produsul a doua variabile
aleatoare discrete simple ca si la functii. Astfel, daca e este un eveniment elementar si X
si Y sunt definite pe aceeasi multime de evenimente elementare, avem
(X + Y )(e) = X(e) + Y (e),

Variabile aleatoare discrete

51

(XY )(e) = X(e)Y (e).


X
este o noua variabila aleatoare definita
Daca Y (e) = 0 oricare ar fi evenimentul e, catul
Y
prin relatia
X
X(e)
( )(e) =
.
Y
Y (e)
Produsul unei variabile aleatoare X cu o constanta reala c este o noua variabila aleatoare
cX definita prin relatia
(cX)(e) = cX(e).
Acest produs poate fi interpretat si ca produsul lui X cu variabila aleatoare constanta
identic egala cu c (Y (e) = c, e E). Daca X(e) 0, e E, iar IR fixat, definim
X ca o noua variabila aleatoare definita prin
(X (e) = (X(e)) .
In cazul n care IN se poate renunta la conditia X(e) 0, e E, variabila aleatoare
poate fi interpretata ca produsul lui X cu el nsusi. Fie variabilele aleatoare X si Y avand
tabelele de repartitie
x1 x2 . . . x m
X:
,
p1 p2 . . . pm
Y :

y1 y2 . . . yn
q1 q2 . . . qn

Fie A1 , A2 , . . . , Am respectiv B1 , B2 , . . . , Bn sistemul complet de evenimente generat de


variabila aleatoare X, respectiv Y . Avem, evident
P (Ai ) = pi , i = 1, m,
P (Bj ) = qj , j = 1, n.
Variabila aleatoare X + Y ia valoarea xi + yj pe submultimea Ai Bj , daca aceasta
intersectie este nevida. Daca Ai Bj = , variabila aleatoare X + Y ia valoarea xi + yj cu
probabilitatea zero si deci aceasta nu apare n tabel. Daca notam P (Ai Bj ) = pij , i =
1, m, j = 1, n atunci tabelul de repartitie al variabilei aleatoare X + Y va fi
X +Y :

x1 + y1 x1 + y2 . . . x1 + yn . . . xm + yn
p11
p12
...
p1n
...
pmn

Pentru produs vom avea


XY :

x1 y1 x1 y2 . . . x1 yn . . . xm yn
p11 p12 . . . p1n . . . pmn

In ambele cazuri tabelul de repartitie are cel mult mn coloane.

52

Variabile aleatoare discrete

Observatia 2.2.2 In cazul particular Y = a = const.,deoarece


pij = P ({X = xi , Y = a}) = P ({(X = xi ) E}) = P ({X = xi }) = pi
avem

a + x1 a + x2 . . . a + xm
p1
p2
...
pm

a+X :

si la fel
aX :

ax1 ax2 . . . axm


p1 p2 . . . pm

Observatia 2.2.3 Definitia sumei de variabile aleatoare discrete simple se poate extinde
la un numar finit de variabile aleatoare simple. De exemplu, daca
X:

xi
pi

, i = 1, m,

atunci
X +Y +Z :

yj
qj

Y :

, j = 1, n,

xi + y j + z k
pijk

Z:

zk
rk

, k = 1, l,

, i = 1, m, j = 1, n, k = 1, l.

Exemplul 2.2.5 Probabilitatea extragerii unei bile albe dintr-o urna este p. Din aceasta
urna se fac doua extrageri, punandu-se bila napoi n urna dupa extragere. Se considera
variabilele aleatoare X1 si X2 , prima reprezentand numarul de bile albe obtinute la prima
extragere si a doua numarul de bile albe de la a doua extragere. Sa se scrie tabloul de
repartitie al variabilelor aleatoare discrete simple X1 , X2 , X1 + X2 , X1 X2 .
Daca
X1 :

0 1
q p

X2 :

atunci
X1 + X2 :

0 1
q p

, q = 1 p,

0
1
2
2
q 2pq p2

deoarece
P ({X1 + X2 = 0}) = P ({X1 = 0, X2 = 0}) = P ({X1 = 0})P ({X2 = 0}) = q 2 ,
P ({X1 + X2 = 1}) = P ({X1 = 1, X2 = 0} {X1 = 0, X2 = 1}) = 2pq,
P ({X1 + X2 = 2}) = P ({X1 = 1, X2 = 1}) = P ({X1 = 1})P ({X2 = 2}) = p2 ,
P ({X1 + X2 = 0}) = P ({X1 = 0, X2 = 0}) = q 2 .
La fel,
X1 X2 :

0
1
2
2pq + q p2

deoarece
P ({X1 X2 = 0}) = P ({X1 = 0, X2 = 0} {X1 = 1, X2 = 0) {X1 = 0, X2 = 1})
= 2pq + q 2 ,
P ({X1 X2 = 1}) = P ({X1 = 1, X2 = 1}) = p2 .

Variabile aleatoare discrete

53

Propozitia 2.2.1 Fiind date variabilele aleatoare


X:

xi
pi

, i = 1, m; Y :

yj

, j = 1, n,

qj

iar pij probabilit


atile definite de suma si produsul celor doua variabile aleatoare. Au loc
relatiile:
n

pi =

pij , qj =
j=1

pij .
i=1

Demonstratie. Efectuand experienta careia i sunt asociate variabilele aleatoare, Y ia n


mod sigur una din valorile y1 , y2 , . . . , yn . Daca X ia valoarea xi , rezulta ca evenimentul
{X = xi } se realizeaza mpreuna cu unul din evenimentele {Y = y1 }, . . . , {Y = yn }. Deci
{X = xi } = {X = xi } ({Y = y1 } {Y = y2 } . . . {Y = yn }) =
= ({X = xi } {Y = y1 }) ({X = xi } {Y = y2 }) . . . ({X = xi } {Y = yn }).
De aici rezulta ca
n

pi = P ({X = xi }) =

P ({X = xi , Y = yj }) =
j=1

pij .
j=1

La fel se demonstreaza cea de-a doua relatie.


Observatia 2.2.4 Daca consideram si variabila aleatoare discreta simpla
Z:

zk
rk

, k = 1, l,

atunci pentru probabilitatile sumei (produsului) celor trei variabile aleatoare discrete simple au loc relatiile
m

pijk = pij ;
k=1

pijk = pjk ;
i=1

= pik ;
j=1

Independenta variabilelor aleatoare discrete simple.


Definitia 2.2.2 Doua variabile aleatoare se numesc independente dac
a probabilitatea ca
una din variabile sa ia o valoare nu depinde de valoarea luata de cea de a doua variabila
aleatoare.
Observatia 2.2.5 Daca X si Y sunt astfel de variabile aleatoare atunci doua evenimente
de forma {X = xi } si {Y = yj }, i = 1, m, j = 1, n, sunt independente.
In general, putem da definitia:

54

Variabile aleatoare discrete

Definitia 2.2.3 Variabilele aleatoare discrete simple X, Y, Z, . . . sunt independente dac


a evenimentele {X = xi }, {Y = yj }, {Z = zk }, . . . i = 1, m, j = 1, n, k = 1, l sunt
independente n totalitatea lor.
Observatia 2.2.6 Daca variabilele aleatoare
xi
pi

X:

, i = 1, m,

yj
qj

Y :

, j = 1, n,

sunt independente, atunci


pij = P ({X = xi , Y = yj }) = P ({X = xi })P ({Y = yj }) = pi qj .
La fel pentru trei variabile aleatoare discrete simple. In cazul acesta
X +Y :
XY :

xi + y j
p i qj
xi y j
pi qj

, i = 1, m, j = 1, n;
, i = 1, m, j = 1, n.

Exemplul 2.2.6 Suma a doua variabile aleatoare discrete simple independente X, Y,


Z = X + Y , poate fi obtinuta astfel:
P ({Z = k}) = P ({X + Y = k}) =
=

P ({X = i, Y = k i}) =

P ({X = i})P ({Y = k i}),

sumarea referindu-se la toate valorile ntregi ale lui X, mai mici decat k. Daca notam cu
p(i) = P ({X = i}), q(j) = P ({Y = j}), r(k) = P ({Z = k}), obtinem
k

r(k) =

p(i)q(k i) =
i=0

p(k j)q(j),
j=0

acestea reprezentand produsul de convolutie a lui p si q.


Propozitia 2.2.2 Variabilele aleatoare simple X si Y sunt independente daca si numai
dac
a evenimentele {x < X < x} si {y < Y < y} sunt independente, oricare ar fi
x, x , y, y IR.
Demonstratie.Presupunem ca X si Y sunt independente. Deoarece
{x < X < x, y < Y < y} =

{X = xi , Y = yj }
x <xi <x, y <yj <y

rezulta, datorita independentei,


P ({x < X < x, y < yj < y}) = P (
x <xi <x, y <yj <y

{X = xi , Y = yj }) =

Variabile aleatoare discrete


=

55

P ({X = xi , Y = yj }) =
x <xi <x;y <yj <y

= P(

x <xi <x

{X = xi })P (

x <xi <x

P ({X = xi })

P ({Y = yj }) =
y <yj <y

{Y = yj }) = P ({x < X < x})P ({y < Y < y}).

y <yj <y

Reciproc, presupunem ca evenimentele {x < X < x} si {y < Y < y} sunt independente,


oricare ar fi x, x , y, y IR. Atunci
{X = xi , Y = yj } = {xi1 < X < xi+1 , yj1 < Y < yj+1 }, i = 1, m, j = 1, n,
unde x0 = y0 = , xn = yn = . Rezulta ca
P ({X = xi , Y = yj }) = P ({xi1 < X < xi+1 , yj1 < Y < yj+1 }) =
= P ({xi1 < X < xi+1 })P ({yj1 < Y < yj+1 }) = P ({X = xi })P ({Y = yj }).

Caracteristici numerice pentru variabile aleatoare discrete simple.


a simpla
Definitia 2.2.4 Fie variabila aleatoare discret
X:

x1 x2 . . . x m
p1 p2 . . . pm

, pi

0, i = 1, m,

pi = 1.

(2.4)

i=1

Vom numi media variabilei aleatoare discrete simple X numarul


m

M [X] = x1 p1 + x2 p2 + . . . + xm pm =

xi p i .
i=1

Denumirea de medie este ndreptatita daca tinem seama de sensul ei practic. Presupunem
ca am repetat de N ori o experienta care ne-a condus la variabila aleatoare X. Daca
valoarea x1 este luata de n1 ori, valoarea x2 de n2 ori,. . ., valoarea xm de nm ori, unde
n1 + n2 + . . . + nm = N , atunci suma valorilor luate de variabila aleatoare X este n1 x1 +
n2 x2 + . . . + nm xm , iar media aritmetica a valorilor luate de X va fi
n 1 x1 + n 2 x2 + . . . + n m xm
n1
n2
nm
= x1 + x2 + . . . +
xm .
N
N
N
N
n1
reprezinta raportul dintre numarul cazurilor n care s-a luat valoarea x1 si numarul
N
n2
nm
total de experimentari, adica p1 . La fel
= p2 , . . . ,
= pm .
N
N
Media aritmetica a valorilor luate de X poate fi aproximata cu p1 x1 +p2 x2 +. . .+pm xm ,
adica media lui X. Media lui X ne arata la ce valoare putem sa ne asteptam pentru media
aritmetica a unui mare numar de valori ale lui X, obtinute n urma repetarii experientei
date.
Dar

56

Variabile aleatoare discrete

Exemplul 2.2.7 Variabilele aleatoare discrete simple din Exemplul 2.2.5, X1 si X2 ,


avand repartitiile:
0 1
X 1 , X2 :
,
q p
au valoarea medie
M [Xi ] = 1p + 0q = p, i = 1, 2,
iar

0
1
2
2
q 2pq p2

X1 + X2 :

are media
M [X1 + X2 ] = 2pq + 2p2 = 2p.
Definitia 2.2.5 Se numeste moment initial de ordin k, k IN , al variabilei aleatoare X
media lui X k . Notam
k = Mk [X] = M [X k ].
Observatia 2.2.7 Momentul initial de ordin 1 al variabilei alearoare X este chiar media
variabilei aleatoare.

Propriet
ati ale mediei.
1. Valoarea medie a unei constante este egala cu constanta,
X:

c
1

, M [X] = c.

2. Daca X este o variabila aleatoare simpla si a IR o constanta, atunci au loc relatiile:


M [a + X] = a + M [X], M [aX] = aM [X],
Intr-adevar, deoarece
a + x1 a + x2 . . . a + xm
p1
p2
...
pm

a+X :
m

M [a + X] =

(a + xi )pi = a
i=1

pi +
i=1

xi pi = a + M [X];
i=1

ax1 ax2 . . . axm


p1 p2 . . . pm

aX :
m

M [aX] =

(axi )pi = a
i=1

xi pi = aM [X].
i=1

Variabile aleatoare discrete

57

3. Valoarea medie a unei variabile aleatoare este cuprinsa ntre cea mai mica si cea mai
mare dintre valorile posibile ale variabilei aleatoare. Fie a = min xi si A = max xi .
m

M [X] =

xi p i > a
i=1
m

M [X] =

i=1
m

pi = A,

xi p i < A
i=1

pi = a,

a < M [X] < A.

i=1

4. Valoarea medie a unei sume finite de variabile aleatoare este egala cu suma valorilor
medii ale variabilelor aleatoare respective. Fie
x1 x2 . . . x m
p1 p2 . . . pm

X:

Y :

y1 y2 . . . yn
q1 q2 . . . q n

x1 + y1 x1 + y2 . . . xm + yn
p11
p12
...
pmn

X +Y :
Atunci

M [X + Y ] =

(xi + yj )pij =
i=1 j=1

xi (
i=1

pij ) +

yj (

j=1

j=1

pij ) =
i=1

xi pi +
i=1

yj qj = M [X] + M [Y ].
j=1

Demonstratia pentru suma unui numar finit de variabile aleatoare se face prin
inductie.
5. Valoarea medie a unui produs de variabile aleatoare independente este egala cu
produsul mediilor variabilelor considerate.
X:

x1 x2 . . . x m
p1 p2 . . . pm
XY :

Y :

y1 y2 . . . yn
q1 q2 . . . q n

x1 y1 x1 y2 . . . xm yn
p11 p12 . . . pmn
m

M [XY ] =

xi yj pij .
i=1 j=1

Daca variabilele sunt independente, se produc simplificari importante deoarece putem


scrie
pij = pi qj
si atunci
n

M [XY ] =

x1 yj p1 qj +
j=1

x2 yj p2 qj + . . . +
j=1

=(

xm yj pm qj =
j=1

xi pi )(
i=1

yj qj ) = M [X]M [Y ].
j=1

58

Variabile aleatoare discrete


6. Oricare ar fi variabila aleatoare X, are loc relatia
M [X 2 ]

|M [X]|.

Consideram variabila aleatoare X avand tabloul (2.4) si fie Y = (X + a)2 , a IR.


Deoarece valorile lui Y sunt pozitive, rezulta ca M [Y ] 0 si deci
m

m
2

M [Y ] =

(xi + a) pi =
i=1

i=1

= M [X 2 ] + 2aM [X] + a2
Rezulta

xi pi + a2 =

xi pi + 2a
i=1

0 a IR.

0 si cum
= (M [X])2 M [X 2 ]

obtinem inegalitatea dorita.


7. Inegalitatea lui Schwarz. Fie x si Y doua variabile aleatoare discrete simple. Are loc
inegalitatea
|M [XY ]|
M [X 2 ]M [Y 2 ].
Demonstratia poate fi gasita n Capitolul 3.4, Formula (3.42).
Definitia 2.2.6 Fie o variabila aleatoare X si o constant
a a IR. Numim abaterea de
la constanta a a variabilei aleatoare X variabila X a.
Definitia 2.2.7 Se numeste moment centrat de ordin k raportat la constanta a a variabilei aleatoare X media variabilei (X a)k .
Observatia 2.2.8 Pentru a = 0 obtinem momentul initial de ordin k.
Observatia 2.2.9 Pentru a = M [X] = m obtinem momentul centrat de ordin k al
variabilei aleatoare X.
Definitia 2.2.8 Variabila aleatoare X M [X] se numeste abaterea de la medie a variabilei aleatoare X.
Propozitia 2.2.3 Valoarea medie a abaterii oricarei variabile aleatoare este nula.
M [X M [X]] = M [X] M [M [X]] = M [X] M [X] = 0.
De multe ori la o variabila aleatoare ne intereseaza cat de mult se abat valorile variabilei
de la valoarea medie. Trebuie sa stabilim un indicator numeric al mprastierii valorilor
variabilei aleatoare n jurul valorii medii. Valoarea medie a abaterii de la medie nu poate
caracteriza aceasta mprastiere deoarece este nula pentru orice variabila aleatoare. Abaterile diferitelor valori, avand semne diferite, se compenseaza. Este firesc sa caracterizam
mprastierea variabilei aleatoare X prin valoarea medie a abaterilor absolute | X M [X] |
pe care o numim abatere medie. Daca X are tabloul de repartitie
X:

x1 x 2 . . . x n
p1 p2 . . . p n

Variabile aleatoare discrete

59

atunci repartitia abaterii absolute este


| x1 m | | x2 m | . . . | xn m |
p1
p2
...
pn

unde m = M [X], iar abaterea medie este


p1 | x1 m | +p2 | x2 m | + . . . + pn | xn m | .
Se observa ca semnul expresiilor xi m nu influenteaza valoarea abaterii medii. Folosirea
abaterii medii este foarte incomoda n calcule. Foarte comoda este n schimb folosirea
expresiei
M [(X m)2 ].
Definitia 2.2.9 Se numeste dispersie a variabilei aleatoare X momentul centrat de ordinul al doilea al variabilei, notat
2 = D2 [X] = M [(X m)2 ], m = M [X].
Observatia 2.2.10 Demonstram o formula utila n aplicatii si anume ca dispersia unei
variabile aleatoare este egala cu media patratului variabilei aleatoare minus patratul mediei, adica
D2 [X] = M [X 2 ] (M [X])2 .
Intr-adevar,

n
2

pi (xi m)2 =

D [X] =
i=1
n

pi xi + m2 = M [X 2 ] 2m2 + m2 = M [X 2 ] (M [X])2 .

pi xi 2m
i=1

i=1

Aratam ca dispersia unei variabile aleatoare X este, ntr-un anume sens, cea mai buna
valoare care caracterizeaza mprastierea valorilor x1 , x2 , . . . , xn sau, cu alte cuvinte, M [X]
este punctul cel mai potrivit fata de care trebuie sa masuram devierile acestor valori. Acest
lucru rezulta din urmatoarea propozitie.
Propozitia 2.2.4 Dac
a X este o variabila aleatoare care ia valorile x1 , x2 , . . . , xn cu
probabilit
atile p1 , p2 , . . . , pn , iar m este media, atunci
n
2

n
2

D [X] =

pi (xi x)2 ,

pi (xi m)
i=1

x IR.

i=1

Demonstratie. Putem scrie xi x = (xi m) + (m x), i = 1, n.


n

n
2

pi [(xi m) + (m x)]2 =

pi (xi x) =
i=1

i=1

60

Variabile aleatoare discrete


n

n
2

pi (xi m) + (m x)2 =

pi (xi m) + 2(m x)
i=1

i=1
n

pi (xi m)2 + 2(m x)(m m) + (m x)2 =

=
i=1

= D2 [X] + (m x)2

D2 [X].

Propriet
ati ale dispersiei.
1. Dispersia unei constante este nula deoarece, tinand seama de proprietatile mediei,
D2 [c] = M [c2 ] (M [c])2 = 0.
2. Doua variabile aleatoare care difera printr-o constanta au dispersiile egale.
X:

x1 x2 . . . x n
p1 p2 . . . pn

a + x1 a + x2 . . . a + xn
p1
p2
...
pn

Y =a+X :

M [Y ] = M [X + a] = M [X] + a,
n
2

(xi + a M [Y ])2 pi =

D [Y ] =
i=1
n

n
2

pi (xi M [X])2 = D2 [X].

pi (xi + a M [X] a) =
i=1

i=1

3. D2 [aX] = a2 D2 [X] deoarece


n

D2 [aX] =

pi (axi am)2 =
i=1

pi a2 (xi m)2 =
i=1

n
2

pi (xi m)2 = a2 D2 [X].

=a

i=1

4. Daca variabilele aleatoare X1 , X2 , . . . , Xk sunt independente, atunci dispersia sumei


este egala cu suma dispersiilor.
D2 [X1 + X2 + . . . + Xk ] = D2 [X1 ] + D2 [X2 ] + . . . + D2 [Xk ].
Intr-adevar, fie
Y = X1 + X2 + . . . + Xk

Variabile aleatoare discrete

61

atunci

k
2

D [Y ] = M [Y ] (M [Y ]) = M [(
i=1

M [X12

X22

+ ... +

Xk2

Xi ])2 =

Xi ) ] (M [
i=1

+ 2X1 X2 + 2X1 X3 + . . . + 2Xk1 Xk ]

(M [X1 ] + M [X2 ] + . . . + M [Xk ])2 = M [X12 ] + M [X22 ] + . . . + M [Xk2 ]+


+2M [X1 X2 ] + 2M [X1 X3 ] + . . . + 2M [Xk1 Xk ] (M [X1 ])2
(M [X2 ])2 . . . (M [Xk ])2 2M [X1 ]M [X2 ] 2M [X1 ]M [X3 ] . . .
2M [Xk1 ]M [Xk ] = M [X12 ] (M [X1 ])2 + M [X22 ] (M [X2 ])2 + . . . +
+M [Xk2 ] (M [Xk ])2 = D2 [X1 ] + D2 [X2 ] + . . . + D2 [Xk ],
folosind Proprietatea 5 a mediei.
Observatia 2.2.11 Proprietatea ramane adevarata n conditii mai putin restrictive. In
cursul demonstratiei s-a folosit faptul ca variabilele aleatoare Xi , i = 1, k sunt independente doua cate doua si nu n totalitatea lor.
Mai general, combinand Proprietatile 3 si 4, avem
k
2

D [

a2 D2 [Xi ]

ai Xi ] =
i=1

i=1

In particular,
D2 [X Y ] = D2 [X] + D2 [Y ].
De obicei, gradul de mprastiere a valorilor unei variabile aleatoare X se exprima nu prin
dispersie, ci prin abaterea medie patratic
a, notata D[X] si definita prin relatia
= D[X] =

D2 [X].

Aceasta are avantajul ca se exprima prin aceleasi unitati de masura ca si valorile variabilei
aleatoare X.
Propriet
ati ale abaterii medii p
atratice.
1. D[c] = 0, daca c = const., c IR.
2. D[a + X] = D[X].
3. D[aX] =| a | D[X].
Proprietatile de mai sus rezulta din proprietatile dispersiei.
Teorema 2.2.1 (Inegalitatea lui Cebasev). Fie X o variabila aleatoare care admite medie
si dispersie finite. Atunci, oricare ar fi
0, are loc inegalitatea
P ({| X m |< })

D2 [X]
2

, m = M [X].

(2.5)

62

Variabile aleatoare discrete

Demonstratie. Facem observatia ca aceasta inegalitate da o margine inferioara pentru


probabilitatea ca abaterea absoluta a unei variabile aleatoare cu dispersia cunoscuta sa
fie mai mica decat un numar dat.
Pentru demonstratie consideram repartitia variabilei aleatoare X,
X:

x1 x 2 . . . x n
p1 p2 . . . p n

n care presupunem ca am scris valorile n ordine crescatoare, si deci asa vor fi scrise si
valorile | xi m |, i = 1, n, adica
|x1 m|

|x2 m|

...

|xn m|.

Daca luam un
0 oarecare, unele din valorile |xi m|, i = 1, n, vor fi mai mari sau
egale cu , altele mai mici. Exista deci un l astfel ncat
|x1 m|

|x2 m|

...

|xl m| <

|xl+1 m|

...

|xn m|.

Aceste inegalitati se mai pot scrie


(x1 m)2

(x2 m)2

...

(xl m)2 <

(xl+1 m)2

...

(xn m)2 .

Variabila aleatoare |X m| are repartitia


|x1 m| |x2 m| . . . |xl m| |xl+1 m| . . . |xn m|
p1
p2
...
pl
pl+1
...
pn
si ia valoarea |xi m| atunci cand X ia valoarea xi . Inegalitatea |X m| < este verificata
atunci cand |X m| ia una din valorile |x1 m|, |x2 m|, . . . , |xl m| adica atunci si
numai atunci cand X ia una din valorile x1 , x2 , . . . , xl . Putem scrie deci evenimentul
(|X m| < ) ca o reuniune finita de evenimente incompatibile
{|X m| < } = {X = x1 } {X = x2 } . . . {X = xl }.
de unde

P ({|X m| < }) =

pi .

pi = 1
i=1

i=l+1

Scriem acum dispersia variabilei aleatoare X


2 = (x1 m)2 p1 + . . . + (xl m)2 pl + (xl+1 m)2 pl+1 + . . . + (xn m)2 pn .
Vom transforma aceasta egalitate n inegalitate prin micsorarea membrului drept.
Aceasta minorare o realizam astfel: valorile (xi m)2 care sunt mai mici ca 2 le nlocuim
cu 0, iar cele care sunt mai mari sau egale cu 2 le nlocuim cu 2 . Atunci
n

0p1 + . . . + 0pl +

pl+1 + . . . +

pn =

pi
i=l+1

Variabile aleatoare discrete

63

si deci

pi ,

i=l+1

pi = P ({|X m|} < ),


i=l+1

care este echivalenta cu Inegalitatea (2.5).


Daca luam = k aceasta inegalitate se scrie
P ({|X m| < k})
sau P ({m k < X < m + k})

1
. De exemplu, pentru k = 3 obtinem
k2

P ({m 3 < X < m + 3})


Deci, cu o probabilitate cuprinsa ntre
(m 3, m + 3).

1
k2

1
8
= .
9
9

8
si 1, orice variabila ia valori cuprinse n intervalul
9

Exemplul 2.2.8 Fie


X:

0, 2 0, 3 0, 4 0, 5
0, 1 0, 2 0, 3 0, 4

Sa se estimeze probabilitatea P ({|X m| < 0, 2}).


Utilizam inegalitatea lui Cebasev cu
P ({|X m| < 0, 2})

D2 [X]
.
0, 22

M [X] = 0, 4, M [x2 ] = 0, D2 [X] = 0, 01. Inlocuim mai sus si obtinem:


P ({|X 0, 4| < 0, 2})

2.3

0, 75.

Exemple de variabile aleatoare discrete simple

1. Repartitia Poisson.
Fie X o variabila aleatoare care ia ca valori numarul de bile albe extrase din n urne
Ui , i = 1, n, care contine fiecare, n proportii diferite, bile albe si negre. Probabilitatea de
a extrage o bila alba din urna Ui este pi , iar o bila neagra este qi = 1 pi . Fie Xi , i = 1, n,
variabilele aleatoare care iau valoarea 1 daca din urna Ui se extrage o bila alba si 0 daca
din aceeasi urna se extrage o bila neagra.
Xi :

0 1
qi pi

, i = 1, n,

64

Variabile aleatoare discrete


M [Xi ] = pi .

Cu notatiile introduse, putem scrie


n

X = X1 + X2 + . . . + Xn =

Xi ,
i=1

M [X] = M [

Xi ] =
i=1

M [Xi ] =
i=1

n
2

D [X] = D [

pi ,
i=1

D2 [Xi ],

Xi ] =
i=1

i=1

deoarece variabilele aleatoare Xi , i = 1, n, sunt independente. Dar


D2 [Xi ] = M [Xi2 ] (M [Xi ])2 .
Deoarece
Xi2 :

0 1
qi pi

avem
M [Xi2 ] = pi ,
deci

n
2

D [Xi ] = pi

p2i

= pi qi si D [X] =

p i qi .
i=1

2. Repartitia Bernoulli.
Este de fapt repartitia Poisson n care structurile urnelor Ui , i = 1, n, sunt identice,
adica p1 = p2 = . . . = pn = p, q1 = q2 = . . . = qn = q. Variabila aleatoare corespunzatoare
este
0
1
2
...
k
...
n
X:
.
0 0 n
1 1 n1
2 2 n2
k k nk
n n 0
Cn p q Cn p q
Cn p q
. . . Cn p q
. . . Cn p q
Scriem, n acest caz, X : Bi(n, p). Particularizand schema lui Poisson, obtinem
M [X] = np,

D2 [X] = npq.

De fapt variabila aleatoare binomiala descrie o experienta n care un eveniment A se


repeta independent de n ori si intereseaza de cate ori s-a realizat n decursul celor n
repetari. Fie X numarul de realizari ale evenimentului A n cele n efectuari. Deci X va
lua valorile 1, 2, 3, . . . n cu probabilitatile P ({X = k}) = Cnk pk q nk . Figura 2.2 si 2.3 sunt
desenate densitatile de probabilitate generalizate pentru variabila aleatoare binomiala,
pentru n = 24, (a) p = 0, 2 si respectiv (b) p = 0.5.
Remarcam ca P ({X = k}) este maxim cand kmax = (n + 1)p , unde x noteaza
partea ntreaga a lui x. Daca (n + 1)p este ntreg, atunci maximum este atins n kmax si
kmax 1.

Variabile aleatoare discrete

65

Variabila aleatoare binomiala apare n aplicatii n care sunt doua tipuri de situtii:
realizari/nerealizari, bit corect/eronat, aparat bun/defect etc.
3. Repartitia hipergeometric
a.
Fie X variabila aleatoare care ia ca valori numarul de bile albe care se obtin extragand
n bile dintr-o urna care contine a bile albe si b bile negre (n a+b). Tabloul de repartitie
al variabilei aleatoare X este

0
1
2
...
k
...
min{n, a}
min{n,a} nmin{n,a}
X : Ca0 Cbn Ca1 Cbn1 Ca2 Cbn2
.
Cak Cbnk
Ca
Cb
...
...
n
n
n
n
n
Ca+b
Ca+b
Ca+b
Ca+b
Ca+b
Calculam caracteristicile numerice ale variabilei aleatoare X. Avem
min{a,n}

M [X] =

k
k=1

a
n
Ca+b

Cak Cbnk
1
= n
n
Ca+b
Ca+b

n1
Ca+b1
=a

kCak Cbnk = =
k

1
n
Ca+b

k1 nk
aCa1
Cb =
k

n!(a + b n)!
(a + b 1)!
an
=
.
(a + b)!
(n 1)!(a + b n)!
a+b

Pentru calculul dispersiei utilizam formula


D2 [X] = M [X 2 ] (M [X])2 .
Calculam mai ntai
2

M [X ] =
k

k(k 1)
k

k nk
2 Ca Cb
k
n
Ca+b

Cak Cbnk
1
= n
n
Ca+b
Ca+b

= a(a 1)

=
k

Cak Cbnk
k(k 1)
+
n
Ca+b

k2 nk
a(a 1)Ca2
Cb =
k

Cak Cbnk
k
;
n
Ca+b

a(a 1) n2
Ca+b2 =
n
Ca+b

a(a 1)n(n 1)
n!(a + b n)!(a + b 2)!
=
.
(a + b)!(n 2)!(a + b n)!
(a + b)(a + b 1)

De aici rezulta ca
M [X 2 ] =

a(a 1)n(n 1)
an
an (a 1)(n 1)
+
=
(
+ 1),
(a + b)(a + b 1) a + b
a+b
a+b1

D2 [X] =

an(an n + b)
a2 n2
abn(a + b n)

=
.
2
(a + b)(a + b 1) (a + b)
(a + b)2 (a + b 1)

si n cazul schemei bilei nentoarse, variabila aleatoare hipergeometrica poate fi scrisa sub
forma unei sume de variabile aleatoare. Sa notam cu X1 numarul de bile albe obtinute la
prima extragere, cu X2 numarul de bile albe obtinute la a doua extragere etc. Tabloul de
repartitie al variabilei X1 este
0 1
X1 :
.
q p

66

Variabile aleatoare discrete

Vom arata ca si celelalte variabile aleatoare Xi , i = 2, n, au aceeasi repartitie. Pentru


aceasta calculam probabilitatea obtinerii unei bile albe la extractia de ordin k, atunci
cand se fac extrageri fara ntoarcerea bilei. Numarul cazurilor posibile Aka+b . Numarul
cazurilor favorabile coincide cu numarul de moduri n care pot fi luate k bile astfel ncat
pe locul k sa fie o bila alba. O bila alba poate fi luata n a moduri.
Celelalte k1 locuri pot fi ocupate n Ak1
n total aAk1
a+b1 moduri,
a+b1 cazuri favorabile.
Probabilitatea catata va fi deci
aAk1
a
a(a + b 1)(a + b 2) . . . (a + b k + 1)
a+b1
=
= p.
=
k
(a + b)(a + b 1) . . . (a + b k + 1)
a+b
Aa+b
Rezulta ca Xk are repartitia
Xk :

0 1
q p

Din relatiile
X = X1 + X2 + . . . + Xn
si
M [X1 ] = M [X2 ] = . . . = M [Xn ] = p,
rezulta
M [X] = np.
Ca si n cazul repatitiei lui Bernoulli, X se scrie ca o suma de variabile aleatoare avand
aceeasi repartitie
0 1
.
q p
Deosebirea este esentiala: n cazul repartitiei hipergeometrice, variabilele aleatoare nu
sunt independente. Din aceasta cauza nu putem calcula dispersia variabilei aleatoare X
ca suma dispersiilor variabilelor aleatoare Xi .
Teorema 2.3.1 Daca X este o variabila aleatoare repartizat
a hipergeometric cu parametrii a + b, a, n, pentru care
C k C nk
P ({X = k}) = a nb ,
Ca+b
atunci

Cak Cbnk
= Cnk pk q nk ,
a+b C n
a+b
lim

(2.6)

a
, q = 1 p si deci pentru valori mari ale lui a + b, o variabila aleaa+b
toare repartizat
a hipergeometric poate fi aproximat
a cu o variabila repartizat
a binomiala
a
Bi(n,
).
a+b
unde p =

Demonstratie.
Cak Cbnk
a(a 1) . . . (a k + 1)

=
n
Ca+b
k!

Variabile aleatoare discrete

67

b(b 1) . . . (b n + k 1)
n!

=
(n k)!
(a + b) . . . (a + b n + 1)

n!
a(a 1) . . . (a k + 1)b(b 1) . . . (b n + k 1)
=
k!(n k)!
(a + b) . . . (a + b n + 1)
a a1
ak+1 b b1
bn+k1
...
...

a+ba+b
a+b a+ba+b
a+b
1
(a + b)n
k1

= Cnk p(p
) . . . (p
)
(a + b) . . . (a + b n + 1)
a+b
a+b
= Cnk

q(q

1
nk+1
(a + b)n
) . . . (q
)
.
a+b
a+b
(a + b) . . . (a + b n + 1)

Trecand la limita obtinem (2.6).


Exemplul 2.3.1 Sa se arate ca daca X, Y sunt doua variabile aleatoare independente,
X : Bi(n, p), Y : Bi(m, p) atunci X + Y : Bi(n + m, p).
k

kl kl mk+l
Cnl pl q nl Cm
p q
=

P ({X = l, Y = k l}) =

P ({X + Y = k}) =

l=0

l=0
k

kl k n+mk
k
Cnl Cm
)p q
= Cm+n
pk q n+mk .

=(
l=0

2.4

Variabile aleatoare discrete simple bidimensionale

In aplicatiile practice ale teoriei probabilitatilor se ntalnesc adesea probleme n care


rezultatele nu pot fi descrise de o variabila aleatoare, ci de doua sau mai multe, ele
formand un vector aleator.
De exemplu, ntr-un anumit experiment ne intereseaza sa masuram atat viteza cat si
directia particulelor atomice emise de o suprafata. Acestea sunt date de perechile (v, ),
unde este marimea unghiului orientat n raport cu sistemul de referinta si v viteza.
Acestea pot fi studiate ca un vector aleator.
Orice variabila aleatoare discreta simpla bidimensionala (X, Y ) se considera ca un
vector aleator de componente X si Y .
Daca vectorul aleator (X, Y ) ia un numar finit de valori, se poate obtine urmatoarul
tablou numit repartitia bidimensionala sau tablou de repartitie bidimensional.
X\Y
x1
x2
..
.

y1
p11
p21
..
.

y2
p12
p22
..
.

...
...
...
..
.

yn
p1n
p2n
..
.

p1
p2.
..
.

xm

pm1
p.1

pm2
p.2

. . . pmn
. . . p.n

pm.
1

68

Variabile aleatoare discrete


Variabilele aleatoare :
X:

xi
pi.

, i = 1, m,

yj
p.j

Y :

, j = 1, n,

se numesc legi de probabilitate marginal


a pentru vectorul bidimensional (X, Y ).
Din faptul ca evenimentele {e E | X(e) = xi , Y (e) = yj }, i = 1, m, j = 1, n,
formeaza un sistem complet de evenimente, rezulta ca
m

pij = 1,
i=1 j=1

unde
pij = P ({e E | X(e) = xi , Y (e) = yj }).
Am notat

pik = pi. , i = 1, m,
k=1

pkj = p.j , j = 1, n,
k=1

cantitati care se numesc probabilit


ati marginale. Ca si n cazul variabilelor aleatoare
unidimensionale, rezulta ca
n

P ({X = xi }) =

pij = pi. ,
j=1
m

P ({Y = yj }) =

pij = p.j .
i=1

Notam cu P ({xi |yj }) probabilitatea conditionat


a:
P ({xi |yj }) = P ({X = xi } | {Y = yj }) .
si atunci avem
P ({xi |yj }) =

P ({X = xi }| {Y = yj })
pij
=
.
P ({Y = yj })
p.j

Analog:
P ({yj |xi }) =

(2.7)

pij
.
pi.

Daca nmultim relatia (2.7) cu P ({Y = yj }) obtinem


P ({X = xi } {Y = yj }) = P ({xi |yj })P ({Y = yj }),
adica am exprimat pij ca un produs dintre o probabilitate conditionata si o probabilitate
marginala. Analog se obtine
P ({X = xi } {Y = yj }) = P ({yj |xi })P ({X = xi }),

Variabile aleatoare discrete

69

Presupunem ca ne intereseaza ca Y sa ia valori ntr-o regiune A,


P {Y A} =

P ({X = xi } {Y = yj }) =
xi yj A

P {X = xi }

P ({yj |xi })P {X = xi } =


xi yj A

xi

P ({yj |xi })

(2.8)

yj A

Daca evenimentele {X = xi } si {Y = yj } sunt independente, deci variabilele aleatoare


X si Y sunt independente, atunci pij = pi. p.j si reciproc.
Deoarece evenimentul
({Y = y1 }|{X = xi }) ({Y = y2 }|{X = xi }) . . . ({Y = yn }|{X = xi }) =
= E|{X = xi }
rezulta ca

P ({yj |xi ) = 1}.


j=1

La fel

P ({xi |yj ) = 1}.


i=1

Observatie. Putem atasa vectorului aleator (X, Y ) tabloul de repartitie dat de legile de
probabilitate conditionata :
X|{Y = yj } :

x1
p1j
p.j

x2
p2j
p.j

. . . xi
pij
...
p.j

. . . xm
pmj
...
p.j

Y |{X = xi } :

y1 y2 . . . yi
pi1 pi2
pij
...
pi. pi.
pi.

. . . ym
pin
...
pi.

si respectiv

Deci avem n legi conditionate ale variabilei aleatoare X corespunzatoare celor n valori
ale variabilei aleatoare Y si respectiv m legi de probabilitate ale variabilei aleatoare Y
conditionate de cele m valori ale lui X.
Exemplul 2.4.1 Numarul bitilor, N , dintr-un mesaj transmisi corect este o variabila
aleatoare care urmeaza o repartitie geometrica cu parametrul p. Presupunem ca mesajul este mpartit n pachete de maximum M biti lungime. Fie Q numarul pachetelor
complete formate cu bitii unui mesaj si R numarul bitilor ramasi n ultimul pachet care
poate fi incomplet. Sa se calculeze probabilitatea ca mesajul transmis sa contina q pachete
complete, iar ultimul pachet sa contina r biti. Notam cu Y variabila aleatoare care ia ca
valori numarul de pachete complete dintr-un mesaj si cu Z variabila aleatoare care ia ca
valori numarul R de biti incompleti din ultimul pachet.

70

Variabile aleatoare discrete

Daca mesajul are N biti, atunci numarul pachetelor complete din mesaj este catul
Q a mpartirii lui N la M , iar restul este numarul R al bitilor din ultimul pachet, N =
M Q + R. Variabila aleatoare Y ia valorile 0, 1, 2, . . . iar variabila aleatoare Z ia valorile
0, 1, 2, . . . , M 1. Asociat acestui eveniment consideram variabila aleatoare bidimensionaa
(Y, Z). Probabilitatea ca mesajul corect sa contina q pachete complete si ultimul pachet
sa contina r biti este data de
P ({Y = q, Z = r}) = P ({X = N }) = pqM +r (1 p),
unde N = qM + r. Probabilitatea ca mesajul transmis sa contina q pachete complete
P ({Y = q}) = P ({X {qM, qM + 1, . . . , qM + (M 1)}}) =
M 1
1 pM
=
pqM +k (1 p) = (1 p)pqM
= (1 pM )(pM )q , q = 0, 1, . . . .
1

p
k=0
Observam ca variabila aleatoare Y urmeaza o repartitie geometrica cu parametrul pM .
Probabilitatea ca ultimul pachet sa contina r biti este

(1 p)pqM +r =

P ({Z = r}) = P ({X {r, M + r, 2M + r, . . .}}) =


q=0

1p r
p , r = 0, 1, 2, . . . , M 1
=
1 pM

Observam ca variabila aleatoare Z urmeaza o repartitie geometrica trunchiata.


Ne punem ntrebarea daca sunt variabilele aleatoare Y si Z independente. Avem:
P ({Y = q})P ({Z = r}) = (1 pM )(pM )q
=

1p r
p =
1 pM

1p r
p = P ({Y = q})P ({Z = r}), q = 0, 1, . . . , r = 0, 1, . . . , M 1.
1 pM

Variabilele aleatoare Y si Z sunt independente.

2.5

Variabile aleatoare cu un num


ar infinit num
arabil de valori

Daca A1 , A2 , . . . , An , . . . constituie un sistem numarabil de evenimente care formeaza


domeniul de definitie al unei astfel de variabile aleatoare cu P (An ) = pn , n IN , atunci
tabloul de repartitie al variabilei aleatoare este
X:

x1 x2 . . . x n . . .
p1 p2 . . . pn . . .

Ai = {e E, X(e) = xi }.

Variabile aleatoare discrete

71

Un astfel de tabel trebuie sa aiba proprietatile:

pi

0, i IN ;

pi = 1.
i=1

Operatiile cu variabile cu un numar infinit numarabil de valori se definesc ca si n cazul


variabilelor aleatoare discrete simple. La fel se pune problema si n cazul independentei
variabilelor aleatoare cu un numar infinit numarabil de valori.

72

Variabile aleatoare discrete

Repartitia Poisson.
Spunem ca variabila aleatoare X este repartizata Poisson cu paramatru , IR+ ,
daca tabloul sau de repartitie este
0

X:


e
1!

2
e
2!

Folosim notatia
P (k; ) =

...
...

k
k
e
k!

...
...

k
e .
k!

Evident P (k; ) > 0 si

k=0

k
k
e = e
= e e = 1.
k!
k!
k=0

In Figura 2.4 desenam densitatea de probabilitate generalizata pentru valorea lui = 9.


Proprietati ale repartitiei Poisson.
P1. Media repartitiei Poisson este aceeasi cu dispersia repartitiei si egala cu .
Intr-adevar,

k
k1
k e =
M [X] =
k
e = .
k!
(k 1)!
k=0
k=1
Pentru calculul dispersiei folosim formula D2 [x] = M [x2 ] (M [X])2 .

M [X ] =

k
2

k=1

k!

k2
k=2
2

k
k
(k k) e +
k 2 e =
=
k!
k!
k=2
k=1

k2
e + = 2 +
(k 2)!

D [X] = 2 + = .

P2. Suma a doua variabile aleatoare independente repartizate Poisson de parametrii 1


si respectiv 2 este o variabila aleatoare repartizata Poisson de parametru 1 + 2 .
Intr-adevar
{X1 + X2 = k} =
= {X1 = 0, X2 = k} {X1 = 1, X2 = k 1} . . . {X1 = k, X2 = 0},
deci

P ({X1 + X2 = k}) =

P ({X1 = k1 , X2 = k k1 }) =
k1 =0

P ({X1 = k1 })P ({X2 = k k1 }) =


k1 =0

k1

e(1 +2 )
k!

k1

1
k11 1 kk
2
e
e2 =
k1 !
(k k1 )!

e(1 +2 )
k!
k11 2kk1 =
(1 + 2 )k .
k
k!
1 !(k k1 )!
=0

Variabile aleatoare discrete

73

P3. Repartitia Poisson se obtine ca un caz limita a repartitiei binomiale cand n


si p scade astfel ncat np = = const.(n general, n > 30, p (0; 0, 1)).
Repartitia Poisson a aparut odata cu studiul variabilelor aleatoare cu un numar
foarte mare de valori. Exemple clasice de astfel de variabile aleatoare sunt cele
legate de evenimentele care apar rar ntr-un interval de timp, ca de exemplu:
- numarul de particule emise de o suprafata radioactiva ntr-un interval de timp;
- numarul accidentelor dintr-o fabrica n decurs de o saptamana;
- numarul masinilor care trec printr-un anumit loc ntr-un interval de timp;
- numarul cererilor de I/O la o retea de calculatoare ntr-un interval de timp.
Toate aceste procese se numesc Poisson si ele vor fi studiate n Capitolul 5. In
aceste cazuri este proportionala cu durata intervalului de timp (adica = tw, w

coeficient de proportionalitate). Parametrul w = se mai numeste parametru de


t
intensitate, reprezentand media numarului de evenimente care se produc n unitatea
de timp.
P4. Deoarece repartitia Poisson se ntalneste n cazul evenimentelor care se ntmpla
rar (n mare, np = constant, rezulta p mic), ea mai poarta denumirea de legea
evenimentelor rare.
Observatia 2.5.1 Repartitia Poisson permite calculul probabilitatii ca un numar de particule sa fie emise de o masa radioactiva intr-un interval de timp. Presupunem ca masa
radioactiva contine n atomi. Intr-o perioada fixata de timp fiecare atom are o probabilitate p foarte mica de dezintegrare si emitere a particulei radioctive. Daca atomii se
dezinegreaza independent unii de altii, atunci numarul emisiilor ntr-un interval de timp
poate fi privit ca efectuarea repetata de n ori a unui acelasi eveniment. De exemplu, un
microgram de radiu contine aproximativ n = 1016 atomi si probabilitatea ca un atom sa
se dezintegreze ntr-un interval de timp de o milisecunda este p = 1015 (Rozanov, 1969).
Astfel sunt ndeplinite conditiile din Proprietatea P3: n mare si p mic astfel ncat numarul
emisiilor urmaeza o variabila aleatoare repartizata Poisson.
Teorema 2.5.1 Daca X urmeaz
a o repartitie binomiala,
P ({X = k}) = Cnk pk q nk ,
atunci
lim Cnk pk q nk =

k
e ,
k!

unde np = = const.
Demonstratie.
n(n 1) . . . (n k + 1) k

( ) (1 )nk =
n
k!
n
n

lim Cnk pk q nk = lim

74

Variabile aleatoare discrete


=

k
n(n 1) . . . (n k + 1)
nk k
lim
(1

)
= e .
k! n
nk
n
k!

Pentru calculul probabilitatilor P (k, ) s-au ntocmit tabele pentru cuprins ntre
0, 1, . . . , 20. Aceste tabele dau probabilitatile ca evenimentele sa se realizeze de cel putin
m ori.

k
e .
P ({X m}) =
k!
k=m
Teorema 2.5.1 ne permite sa aproximam probabilitatile unei repartitii binomiale.
Exemplul 2.5.1 Probabilitatea de eroare la transmiterea unui bit printr-o linie de comunicatie
este de 103 . Sa se calculeze probabilitatea ca la transmiterea unui bloc de 1000 de biti
sa avem cinci sau mai mult de cinci erori.
Transmiterea fiecarui bit reprezinta o experienta Bernoulli care se realizeaza daca s-a
produs o eroare la transmiterea bitului. Probabilitatea ca sa se produca k erori n 1000
de transmisii este data de probabilitatea calculata cu legea binomiala cu n = 1000 si
p = 103 . Legea Poisson cu parametrul = np = 1000 103 = 1 aproximeaza legea
binomiala. Astfel
4

P [N

5] = 1 P [N < 5] = 1
k=0

k
1
1
1
1
e = 1 e1 1 + + + +
k!
1! 2! 3! 4!

= 0, 00366

Exemplul 2.5.2 O fabrica produce becuri si da 2 % rebut. Sa se aproximeze probabilitatea ca ntr-o cutie de 100 de becuri sa obtinem cel mult trei becuri defecte?
Presupunand indepependenta, avem de-a face cu o variabila aleatoare repatizata binomial cu p = 0, 02 si n = 100. Daca dorim sa calculam probabilitatea cu ajutorul schemei
binomiale, dupa calcule laborioase obtinem
3
k
C100
(0, 2)k (0, 98)100k = 0, 859.
k=0

Daca aproximam X cu o variabila aleatoare repartizata Poisson, = 100 0, 02 = 2,


3

k=0

2k e2
= 0, 857.
k!

Urmatorul exemplu justifica trecerea la limita si alegerea parametrului .


Exemplul 2.5.3 Un generator de particule emite particule n unitatea de timp. Care
este probabilitatea ca n intervalul t sa apara k impulsuri ?
t
Pentru n suficient de mare mpartim [0, t] n intervale de lungime , ncat n fiecare
n
interval sa existe cel mult un impuls. Probabilitatea ca ntr-un interval de timp de lungime
t
wt
t
sa fie nregistrat un impuls este w = p (se observa ca
0, pentru n ,
n
n
n

Variabile aleatoare discrete

75

ceea ce justifica nca o data denumirea de eveniment rar). Probabilitatea ca n intervalul


[0, t] sa fie nregistrate k impulsuri este data de schema lui Bernoulli
Cnk (

wt k
wt nk
(wt)k wt
) (1
)

e
pentru n cu = wt.
n
n
k!

Repartitia geometric
a.
Spre deosebire de variabila aleatoare binomiala care apare cand fixam un numar de
repetari ale unei experiente care poate consta n realizarea sau nerealizarea evenimentului
A si numaram numarul de realizari ale acestuia, n cazul variabilei geometrice numaram
numarul m de efectuari ale experientei (experiente de tip Bernoulli, adica independente
si repetate n aceleasi conditii) pana la prima realizare a evenimentului A. In acest caz
variabila aleatoare X ia valorile X = k, k = 1, 2, . . . , m, . . . si avem
P ({X = k}) = pq k1 , q = 1 p, k = 1, 2, 3, . . . ,
unde P (A) = p este probabilitatea de realizare a evenimentului A.
In acest caz
k1

k2

pq j1 = p

F (k) = P ({X < k}) =


j=1

pq j = p
j =0

1 g k1
= 1 q k1 ,
1q

unde q = 1 p.
Uneori ne intereseaza M = M 1, numarul de repetari ale experientei pana la reusita
ei:
P [M = k] = P [M = k + 1] = (1 p)k p, k = 0, 1, 2, . . .
Variabila aleatoare X va lua valoarea 1 daca evenimentul se realizeaza n cadrul primei
experiente si deci P ({X = 1}) = p; X va lua valoarea 2 daca evenimentul A nu s-a realizat
la prima experienta, dar se realizeaza la a doua experienta, P ({X = 2}) = P (A A) =
(A) = (1p)p = qp. Analog, P ({X = 3}) = P (A
AA)

(A)P
(A) = q 2 p
P (A)P
= P (A)P
etc. Avem, evident

pq k1 = p

P ({X = k}) =
k=1

k=1

1
= 1.
1q

Calculam media si dispersia variabilei aleatoare.

M [X] =

kpq
k=1

=p

k1

=p

kq
k=1

k1

d
qk ) =
=p (
dq k=1

d
q
p
1
[
]=
=
,
dq 1 q
(1 q)2
p

tinand seama de proprietatile seriilor de puteri pentru |q| < 1.


D2 [X] = M [X 2 ] (M [X])2 ,

76

Variabile aleatoare discrete

M [X ] =

k pq

k1

=p

k=1

=p

2 k1

k q
k=1

d
=p
dq

kq k =
k=1

d
q
2p
2p
[
]
=
p
=
,
dq (1 q)2
p3
p2

si deci
D2 [X] =

2p
1
q
2 = 2.
2
p
p
p

In Figura 2.5 a) si b) desenam densitatea de probabilitate generalizata pentru diferite


valori ale lui p.
Exemplul 2.5.4 Calculatorul A transmite un mesaj calculatorului B printr-o linie telefonica. Mesajul este codat astfel ncat B detecteaza cand se produc erori n cursul transmiterii mesajului. Daca B detecteaza o eroare cere calculatorului A retransmiterea mesajului. Daca probabilitatea ca transmiterea mesajului sa fie eronata este q = 0, 1, care este
probabilitatea ca mesajul sa necesite mai mult de doua transmisii.
Fiecare transmitere a mesajului urmeaza o repartitie binomiala cu probabilitatea ca
mesajul sa fie corect p = 1 q. Experientele se repeta pana cand prima transmisie este
corecta. Probabilitatea ca mesajul sa necesite mai mult de doua transmisii este
P ({X > 2}) = q 2 = 102 .
Exemplul 2.5.5 Fie N numarul de apeluri pe care le face un calculator spre un terminal
pana cand terminalul are un mesaj gata de a fi transmis. Daca presupunem ca terminalul
produce mesaje care formeaza un sir de experiente care urmeaza legea binomiala, atunci
N are o repartitie geometrica. Aflati media variabilei aleatoare care ia ca valori numarul
de apeluri. Presupunem p = 0, 4.

kpq k1 =

M [X = N ] =
k=1

1
= 2, 5
p

Aceasta nu este o valoare pe care o poate lua N . Afirmatia N este egala cu 2.5 n medie
nu are sens. Sensul afirmatiei este ca media aritmetica a unui numar mare de experiente
va fi aproape de 2.5.
Repartitia binomial
a cu exponent negativ.
Se spune ca variabila aleatoare X are repartitie binomiala cu exponent negativ, cu
parametrii m si p, (m = 1, 2, . . . , 0 < p < 1), daca X poate lua valorile m, m + 1, m + 2, . . .
iar
m1 m km
p q
, q = 1 p.
P ({X = k}) = Ck1
Acesta repartitie apare n modele de tipul urmator: sa presupunem ca s-a efectuat
un numar de observatii independente, n cursul fiecarei observatii evenimentul A (de
exemplu nefunctionarea unui subansamblu al unui aparat) poate sa se produca cu probabilitatea p. Observatiile continua pana cand evenimentul se produce de m ori si se cauta
probabilitatea pentru ca aceasta sa se produca exact n decursul a k observatii (k m).

Variabile aleatoare discrete

77

Evenimentul {X = k} se scrie ca intersectie a doua evenimente: n primele k 1 observatii


evenimentul A se produce de m 1 ori si n observatia k se produce evenimentul A. Din
m1 m km
schema lui Bernoulli se deduce ca probabilitatea primului eveniment este Ck1
p q
iar probabilitatea celui de-al doilea eveniment este egala cu p. Deci
m1 m1 km
m1 m km
P ({X = k}) = pCk1
p
q
= Ck1
p q
.

Numele acestei repartitii provine din faptul ca probabilitatea cautata este coeficient
n dezvoltarea n serie a lui

1 q
m1 km
m1 m km
( )m = pm (1 q)m = pm
Ck1
q
=
Ck1
p q
.
p p
k=m
k=m
Observam ca definirea acestei variabile aleatoare este corecta deoarece P ({X = k}) >

m1 m km
Ck1
p q
= 1.

0 si
k=m

Pentru a calcula media tinem seama ca (1 x)

m1 km
Ck1
x
si deci

=
k=m

xm
C m1 xk daca |x| < 1,
=
(1 x)m k=m k1

m1 k1
Ck1
x
=
k=m

(2.9)

d
xm
mxm1
(
)
=
daca |x| < 1,
dx (1 x)m
(1 x)m+1

adica

m1 m km
kCk1
p q

M [X] =

m1 k1
kCk1
q
= pm q m+1

m m+1

=p q

k=m

k=m

M [X] =

mq m1
m
= ,
m+1
p
p

m
.
p

Pentru calculul dispersiei folosim

M [X ] =

m1 m km
Ck1
p q

m m+1

k 2 q k1 .

=p q

k=m

k=m

Pentru a calcula ultima suma nmultim (2.9) cu x si derivam

m1 k1
x
=
k 2 Ck1
k=m

d
mxm
mxm1 (m + x)
[
]
=
,
dx (1 x)m+1
(1 x)m+2

deci
M [X 2 ] =

m(m + q)
,
p2

iar
D2 [X] =

mq
.
p2

78

2.6

Variabile aleatoare discrete

Functia generatoare

In problemele n care apar variabile aleatoare nenegative se utilizeaa functia generatoare a variabilei aleatoare X, GX (z) care se defineste prin relatia

pk z k ,

GX (z) =

(2.10)

k=0

unde P ({X = k}) = pk , k = 0, 1, 2, . . .. Deci cunoscand probabilitatile pk putem deter

mina functia generatoare. Deoarece


|z|

pk = 1, seria de puteri (2.10) converge pentru


k=0

1. Pentru |z| < 1 seria de puteri se poate deriva terman cu termen si obtinem:

(j)
GX (z)

n(n 1) . . . (n j + 1)pj z

(nk)

Cnj j!pj z (nk) .

k=j

k=j

Daca n relatia de mai sus facem z = 0 obtinem


(j)

GX (0) = j!pj sau pj =

1 (j)
G (0).
j! X

Aceasta ne arata ca putem determina toate probabilitatile pk cu ajutorul functiei genera(j)


toare. Din acesta cauza GX se numeste functie generatoare. In particular, punand z = 1
n GX si n GX obtinem:
M [X] = GX (1), M [X 2 ] = GX (1) + GX (1).
Exemplul 2.6.1 Functia generatoare pentru variabila aleatoare Poisson cu parametru
este data de

GX (z) =
k=0

k k
(z)k

e z =e
= e ez = e(z1) .
k!
k!
k=0

Primele doua derivate ale lui GX (z) sunt date de


GX (z) = e(z1) ; GX (z) = 2 e(z1) .
De aici rezulta media si dispersia variabilei aletoare Poisson
M [X] =
D2 [X] = 2 + 2 = .

Variabile aleatoare discrete

2.7

79

Probleme propuse

Problema 2.1 Se defineste variabila aleatoare


1 0
1
1/3 1/3 1/3

X:

Sa se scrie tabloul de repartitie al variabilelor aleatoare X 2 , X + X 2 , X + X 3 .


Indicatie. P ({X 2 = 0}) = P ({X = 0}) = 1/3, P ({X 2 = 1}) = P ({X = 1} {X =
1}) = 1/3 + 1/3 = 2/3.
0
1
X2 :
.
1/3 2/3
1 0 1 2
0 1/3 0 2/3

X + X2 :

2 1 0 1 2
1/3 0 1/3 0 1/3

X + X3 :

Problema 2.2 Fie


0
1
2
3
4
0, 15 0, 45 0, 20 0, 15 0, 05

X:

Sa secalculeze:
a) valoarea medie a variabilei aleatoare X si momentul initial de ordin 2;
b) dispersia;
c) momentul centrat de ordin 3.
Indicatie.
5

x2i pi = 3, 4.

xi pi = 1, 5, M [X ] =

a) M [X] =

b) Notam m = M [X] = 1, 5, D2 [X] = M [(X m)2 ].


X m:

1, 5 0, 5 0, 5 1, 5 2, 5
0, 15 0, 45 0, 20 0, 15 0, 05

X m:

0, 25 2, 25 6, 25
0, 65 0, 30 0, 05

D2 [X] = M [(X m)2 ] = 1, 15 sau D2 [X] = M [X 2 ] (M (X))2 .


5

(xi m)3 pi ,

b) M [(X m)3 ] =
1

(X m)3 :

(1, 5)3 (0, 5)3 (0, 5)3 (1, 5)3 (2, 5)3
0, 15
0, 45
0, 20
0, 15
0, 05

astfel ncat M [(X m)3 ] = 0, 75.


Problema 2.3 Fie X o variabila aleatoare repartizata binomial.

80

Variabile aleatoare discrete


a. Sa se atate ca

pk
(n k + 1)p
(n + 1)p k
=
=1+
pk1
kq
kq

b. Sa se atate ca a. implica:(1) P ({X = k}) este maxima pentru kmax = [(n+1)p], unde
[x] este partea ntreaga a lui x; (2) daca (n + 1)p este un ntreg, atunci maximum
este atins n kmax si kmax 1.
Indicatie. b. Impunem conditiile pk /pk1 > 1, pk+1 /pk < 1.
Problema 2.4 Fie X o variabila aleatoare repartizata geometric. Sa se calculeze
P ({X > k}) si P ({Xeste un numar par}).
Indicatie. P ({X > k}) = 1 P ({X < k}) P ({X = k}) = 1 (1 q k1 )pq k1 = q k ;

1
p
P
{X = 2k} =
=
.
P ({X = 2k}) =
pq 2k1 =
2
1

q
1
+
q
k=1
k=1
k=1
Problema 2.5 Sa se arate ca variabila aleatoare geometrica are proprietatea de pierdere a memoriei
P ({X

k + j|X > j}) = P ({X

k}), j, k > 0

In ce sens are loc pierdera memoriei?


k + j) (X j)
= q k . Pierderea
P ({X > j})
memoriei are loc n sensul ca probabilitatea realizarii unui eveniment, legat de o experienta Bernoulli, dupa k + j 1 nerealizari, stiind ca nu s-a realizat dupa j efectuari ale
experientei, depinde numai de k.
Indicatie. P ({X

k + j}|{X

j}) =

P (X

Problema 2.6 Fie X o variabila aleatoare repartizata geometric. Sa se calculeze


P ({X = k | X m}).
Indicatie. q k1 p/(1 q m ), 1 k m.
Problema 2.7Fie X o variabila aleatoare repartizata binomial.
a. Sa se atate ca

pk
(n k + 1)p
(n + 1)p k
=
=1+
pk1
kq
kq

b. Sa se atate ca a. implica:(1) P ({X = k}) este maxima pentru kmax = [(n+1)p], unde
[x] este partea ntreaga a lui x; (2) daca (n + 1)p este un ntreg, atunci maximum
este atins n kmax si kmax 1.
Indicatie. b. Impunem conditiile pk /pk1 > 1, pk+1 /pk < 1.
Problema 2.4 Fie X o variabila aleatoare repartizata geometric. Sa se calculeze
P ({X > k}) si P ({Xeste un numar par}).
Indicatie. P ({X > k}) = 1 P ({X < k}) P ({X = k}) = 1 (1 q k1 )pq k1 = q k ;

1
p
P
=
.
{X = 2k} =
P ({X = 2k}) =
pq 2k1 =
2
1q
1+q
k=1
k=1
k=1

Variabile aleatoare discrete

81

Problema 2.8 Comparati aproximatia obtinuta cu variabila Poisson cu probabilitatea


binomiala pentru k = 0, 1, 2, 3 si n = 19, p = 0, 1; n = 20, p = 0, 05; n = 100, p = 0, 01.
Problema 2.9 Fie X o variabila aleatoare repartizata Poisson. Sa se arate ca pentru
< 1, P ({X = k}) este maxim n k = 0; pentru > 1, P ({X = k}) este maximum pentru
[]; daca este ntreg pozitiv, P ({X = k}) este maximum pentru = k si k = 1.
Problema 2.10 Calculati media si dispersia unei variabile aleatoare discrete care ia
valorile {1, 2, . . . , n} cu aceeasi probabilitate.
1
Indicatie. P ({X = k}) = , k = 1, 2, ..., n..
n
Problema 2.11 Sa se calculeze probabilitatile marginale pentru urmatorii vectori
aleatori bidimensionali:
X \Y
-1
0
1

1
0
1/6 0
0 1/3
1/6 0

1
1/6
0
1/6

X \Y
-1
0
1

1
0
1/9 1/9
1/9 1/9
1/9 1/9

1
1/9
1/9
1/9

X \Y
-1
0
1

1
0
0
0
0 1/3
1/3 0

1
1/3
0
0

Sa se calculeze probabilitatile evenimentelor A = {X


0}, B = {x
Y } si C =
{X = Y }.
Indicatie. In toate cazurile P ({X = 1}) = P ({X = 0}) = P ({X = 1}) = 1/3,
P ({Y = 1}) = P ({Y = 0}) = P ({Y = 1}) = 1/3.
Problema 2.12 Un mesaj necesita X unitati de timp pentru a fi transmis, unde X
este o variabila aleatoare repartizata geometric cu pj = (1 )j1 , j = 1, 2, . . .. Un
singur nou mesaj este transmis ntr-o unitate de timp cu probabilitatea p si nici un mesaj
cu probabilitatea 1 p. Fie K numarul de mesaje noi care apar de-a lungul transmiterii
unui singur mesaj. Sa se calculeze probabilitatea P ({X = k}). Sa se calculeze M [X] si
D2 [X].
(1 )
p
Indicatie. P ({X = k}) =
(
)k .
(1 (1 p)) 1 (1 p)
Problema 2.13 Numarul total de defecte care apar la un circuit urmeaza o distributie
Poisson cu parametrul . Presupunem ca fiecare defect apare ntr-o anumita regiune R
cu probabilitatea p si ca aparitia unui defect este independenta de aparitia altor defecte.
Sa se determine probabilitatea ca numarul de defecte Y care apar n regiunea R sa fie j.
Indicatie. Folosind ecuatia (2.8) avem

P ({Y = j}) =

P ({Y = j/X = k})P ({X = k}).


k=0

82

Variabile aleatoare discrete

Defectele care apar n fiecare moment pot fi considerate ca experiente Bernoulli care se
realizeaza cu succes daca defectul este n regiunea R. Daca numarul total de defecte este
X = k, atunci numarul de defecte care apar n regiunea R urmeaza o repartitie Bernoulli
de parametrii k si p:
P ({Y = j|X = k}) = Ckj pj (1 p)kj , 0
Atunci

P ({Y = j}) =
(p)j e
=
j!

k=j

k=j

k.

k!
k
pj (1 p)kj e =
j!(k j)!
k!

((1 p))kj
(p)j e (1p) (p)j p
=
e
=
e .
(k j)!
j!
j!

Astfel Y este o variabila aleatoare repartizata Poisson cu media p.

Capitolul 3
Variabile aleatoare continue
3.1

Functia de repartitie a unei variabile aleatoare


unidimensionale

In cele ce urmeaza {E, K, P } este un camp borelian de probabilitate, notiune care a


fost definita n Capitolul 1.8.
Definitia 3.1.1 Functia X : EIR se numeste variabila aleatoare dac
a
x IR,

{e E|X(e) < x} K.

(3.1)

Pentru simplificare vom nota {X < x} = {e E|X(e) < x}. Aceasta conditie are loc
totdeauna n cazul unei variabile aleatoare discrete (alegand eventual un camp borelian
convenabil). Din definitie si din proprietatile lui K (de a fi nchis la complementara,
reuniuni si intersectii numarabile), fiecare din multimile
{X
{a < X

x}, {X > x}, {X


b}, {a < X < b}, {a

x}, {a
X

X < b},

b}, x, a, b IR,

(3.2)

apartine lui K, daca (3.1) are loc si reciproc, apartenenta la K a oricarei multimi (3.2)
implica (3.1). Pentru exemplificare, sa demonstram ca pentru orice x IR, urmatoarele
doua afirmatii sunt echivalente:
i. {X < x} K;
ii.{X x} K.
Sa demonstram (i) (ii). Putem scrie

{X

x} =

{X < x + 1/n}.
n=1

Din (i) avem {X < x + 1/n} K si din faptul ca familia K este nchisa la intersectii
numarabile, rezulta ca {X x} K.
Pentru implicatia (ii) (i), observam ca

{X < x} =

{X
n=1

83

x 1/n},

84

Variabile aleatoare continue

iar {X
x 1/n} K. Echivalenta {X < x} K {X > x} K, x R, rezulta
din faptul ca {X x} = {X > x} si axioma a) din definitia campului borelian.
Exemplul 3.1.1 Daca E = IR, iar K este cel mai mic corp borelian ce contine toate
intervalele (a, b), a, b IR, elementele lui K se numesc multimi boreliene. Orice functie
f : IR IR continua este o variabila aleatoare, deoarece contraimaginea unei multimi
deschise este o multime deschisa. Se poate demonstra ca acest rezultat se pastreaza si n
cazul multimilor boreliene (contraimaginea unei multimi boreliene este boreliana).
Urmatoarele propozitii ne arata ca operatiile uzuale cu functii, aplicate variabilelor aleatoare, au ca rezultat tot variabile aleatoare.
Propozitia 3.1.1 Fie X o variabila aleatoare si c IR, atunci urmatoarele functii:
1. X + c;
2. cX;
3. |X|;
4. X 2 ;
5. 1/X;
sunt variabile aleatoare.
Demonstratie. Vom transforma convenabil relatia (3.1) n fiecare caz si vom folosi faptul
ca X este variabila aleatoare.
1.{X + c < x} = {X < x c} K, x IR.
{X > x/c}, daca c < 0
K.
2.{cX < x} =
{X < x/c}, daca c > 0
Daca c = 0, afirmatia este imediata.
3.{|X| < x} = {X < x}
{X > x} K.
2
4.{X < x} =
{|X| < x} K, x > 0.
{X < 0} {X > 1/x}, daca x < 0
1
{X < 0},
daca x = 0 K.
5.{ < x} =

X
{X < 0} {X > 1/x}, daca x > 0
Propozitia 3.1.2 Dac
a X si Y sunt variabile aleatoare, atunci:
1. X Y ;
2. X + Y ;
3. XY ;
4. X/Y ;
5. max(X, Y );

Variabile aleatoare continue

85

6. min(X, Y );
sunt variabile aleatoare.
Demonstratie. Toate afirmatiile 2-6, decurg din prima. Sa demonstram 1. Folosind
numarabilitatea multimii Q si faptul ca ntre doua numere reale exista cel putin un numar
rational putem scrie:

{X Y < x} = {X < Y + x} =

({X < rn } {rn x < Y })

K,

n=1

unde rn Q.
Pentru 2, observam ca X + Y = X (Y ), iar pentru XY , afirmatia rezulta din
1
identitatea XY = [(X + Y )2 (X Y )2 ].
4
4 este o consecinta a afirmatiei precedente si a Propozitiei 3.1.1.
Ultimele doua afirmatii rezulta din egalitatile:
1
max(X, Y ) = (X + Y + |X Y |),
2
1
min(X, Y ) = (X + Y |X Y |).
2
Definitia 3.1.2 {Xi }, i I este o familie de variabile aleatoare independente, daca
pentru orice J I, J finit
a si orice familie {Bj }, j J de multimi boreliene (vezi
Exemplul 3.1.1) are loc:
P ({

Xj1 (Bj )}) =

jJ

P ({Xj1 (Bj )}).


jJ

Propozitia 3.1.3 Fie {Xi } , i I o familie de variabile aleatoare independente si


fi : IR IR o familie de functii continue. Atunci familia {fi Xi } constituie o familie de
variabile aleatoare independente.
Demonstratie. Pentru orice J I finita, are loc:
P ({
jJ

P ({Xj1 (fj1 (Bj ))}).

Xj1 fj1 (Bj )}) =

(fj Xj )1 (Bj )}) = P ({


jJ

jJ

Deoarece fj este o functie continua, contraimaginea unei multimi boreliene este de asemenea boreliana, iar afirmatia rezulta din faptul ca Xj este variabila aleatoare.
Definitia 3.1.3 Functia F : IR [0, 1], definita prin
F (x) = P ({X < x})
se numeste functia de repartitie a variabilei aleatoare X.

(3.3)

86

Variabile aleatoare continue

Daca se particularizeaza definitia n cazul unei variabile aleatoare discrete, se obtine


functia n scara data n Capitolul 2.2.
Propozitia 3.1.4 Urm
atoarele afirmatii sunt adevarate:
1. Daca x1 < x2 , atunci F (x1 )

F (x2 ), x1 , x2 IR;

2. F (x 0) = F (x), x IR (F este continu


a la stanga);
3. lim F (x) = 0;
x

4. lim F (x) = 1;
x+

Demonstratie.
1. Observam ca {X < x2 } = {X < x1 } {x1
X < x2 }, iar cele doua evenimente
sunt incompatibile. Aplicand probabilitatea peste ultima relatie, gasim
F (x2 ) = P ({X < x2 }) = F (x1 ) + P ({x1
deoarece din definitie, P ({x1 X < x2 })
2. Fie xn un sir crescator la x. Avem:

X < x2 })

F (x1 ),

0.

{X < x} = {X < x1 } (

{xn

X < xn+1 }).

n=1

Aplicand probabilitatea, gasim

F (x) = F (x1 ) +

(F (xn+1 ) F (xn ))
n=1

deci seria precedenta este convergenta si are ca suma limita sirului de sume partiale.
F (x) = F (x1 ) + lim (F (x2 ) F (x1 ) + F (x3 ) F (x2 ) + . . . + F (xn+1 ) F (xn )) =
n

= lim F (xn+1 ) = F (x 0).


n

3. Daca xn este un sir descrescator la , atunci

{X < x} = {x1

X < x} (

{Xn+1

X < xn }).

n=1

Aplicand probabilitatea, rezulta

F (x) = F (x) F (x1 ) +

(F (xn ) F (xn+1 )),


n=1

de unde lim F (xn+1 ) = 0.


n

Variabile aleatoare continue

87

4. Se constata ca

{X

} = {X < x1 } (

{xn

X < xn+1 }),

n=1

unde xn este un sir crescator la +. Procedand ca mai sus, gasim 1 = lim F (xn ).
n

Observatie. Daca x1 < x2 , atunci


P ({x1

X < x2 }) = F (x2 ) F (x1 ).

Afirmatia rezulta folosind demonstratia punctului 1.


Folosind relatia dintre probabilitatea unui eveniment si cea a evenimentului contrar,
mai rezulta
P ({X x}) = 1 F (x).
Observatie. Se poate demonstra ca, reciproc, orice functie F : IR IR avand proprietatile
1-4, este functia de repartitie a unei variabile aleatoare, pe un anumit camp de probabilitate, de aceea vom spune ca aceste proprietati reprezinta o caracterizare a functiei
de repartitie. De exemplu putem lua E = (0, 1) si K corpul borelian generat de intervalele deschise ale lui E, iar P masura Lebesgue [ 22 ] pentru care vom schita modul de
constructie. Notam cu
D={

(ai , bi )|(ai , bi ) (aj , bj ) = , I IN }, ai , bi (0, 1).


iI

Elementele lui D se numesc multimi deschise. Definim aplicatia


P0 : D [0, 1],
P0 (

(ai , bi )) =
iI

(bi ai ), ai , bi (0, 1).


iI

Se observa ca daca I are un singur element, conditia de mai sus devine:


P0 (a, b) = b a, a, b (0, 1)
formula care da lungimea intervalului (a, b); deci masura Lebesgue a unei reuniuni numarabile de intervale disjuncte este suma lungimilor lor. Seria din membrul al doilea are
sirul sumelor partiale sn marginit. Intr-adevar, ordonand intervalele din sirul sumelor
partiale, putem presupune 0 a1 < a2 < . . . an si bn 1. Atunci
n

sn =

(bi ai )
i=1

n1

(bi ai ) +
i=1

(ai+1 bi ) = bn a1

1 0 = 1.

i=1

Fie K cel mai mic corp borelian (se poate arata ca exista), care contine D, pe care l
notam K; aplicatia P0 poate fi prelungita la o probabilitate pe K, astfel ncat sa aiba loc
D D, P (D) = P0 (D).

88

Variabile aleatoare continue

Fie F o functie care satisface conditiile propozitiei precedente; pentru simplificare


sa presupunem ca F este strict monotona si continua (deci este inversabila) si notam
X = F 1 . Atunci F este functia de repartitie a variabilei aleatoare X. Intr-adevar,
P ({y (0, 1)|X(y) < x}) = P ({y (0, 1)|F 1 (y) < x}) =
= P0 ({y (0, 1)|y < F (x)}) = F (x) 0 = F (x),
unde P este masura Lebesgue introdusa anterior.
Propozitia 3.1.5 Pentru orice variabila aleatoare X, are loc
P ({X = x}) = F (x + 0) F (x).
Demonstratie. Fie x1 > x2 > . . . xn > xn+1 > . . . un sir convergent la x. Atunci are loc

{X

x} = {X = x} {X

x1 } (

{xn+1

X < xn }).

n=1

Aplicand probabilitatea, gasim


1 F (x) = P ({X = x}) + 1 F (x1 ) + lim (F (x1 ) F (x2 ) + . . . + F (xn ) F (xn+1 )) =
n

= P ({X = x}) + 1 lim F (xn ) = P ({X = x}) + 1 F (x + 0).


n

Deci afirmatia este adevarata.


Din propozitia precedenta deducem ca urmatoarele afirmatii sunt echivalente:
i. P ({X = x}) = 0;
ii. F este continua n x.
Propozitia 3.1.6 O functie de repartitie are o multime cel mult numarabil
a de puncte
de discontinuitate de prima spet
a.
Demonstratie. Fiind monotona, functia de repartitie F nu poate avea decat discontinuitati
de prima speta (deci n orice punct x R, exista F (x 0) = F (x) si F (x + 0) finite).
Deoarece 0 F (x) 1, F nu poate avea un salt mai mare ca 1/2, cel mult trei salturi
1
cuprinse ntre 1/4 si 1/2, iar n general cel mult 2n 1 salturi cuprinse ntre 21n si 2n1
.
Renumerotand, obtinem multimea salturilor cel mult numarabila.
O variabila aleatoare cu functie de repartitie continua va fi numita variabila aleatoare
continu
a. Daca X este o variabila aleatoare continua, iar A este o multime cel mult
numarabila, atunci probabilitatea ca X sa ia valori n A este nula, adica
P ({e E|X(e) A}) = P ({X 1 (A)}) = 0.
Definitia 3.1.4 Fie X o variabila aleatoare cu functia de repartitie F si q IN ; numerele ci , i = 1, . . . q 1 definite prin
F (ci )
se numesc q-cvantile .

i
, F (ci + 0)
q

i
q

Variabile aleatoare continue

89

q-cvantilele sunt unic determinate daca F este continua si strict crescatoare ca solutii ale
ecuatiei
i
F (ci ) = , i = 1 . . . q 1.
q
Pentru q = 2 se obtine mediana, pe care o vom nota me si care se caracterizeaza prin
F (me )

1
, F (me + 0)
2

1
,
2

(3.4)

iar n cazul continuitatii lui F ,

1
F (me ) = .
2
Pentru q = 4 se obtin cvartilele, pentru q = 10,decilele etc.
Functia de repartitie conditionat
a.
In campul de probabiliatate {E, K, P } consideram A K, cu proprietatea P (A) = 0.
Reamintim ca n Capitolul 1.2 s-a definit notiunea de probabilitate conditionata prin
formula
P (A B)
, B K.
P (B|A) = PA (B) =
P (A)
Definitia 3.1.5 Data o variabila aleatoare X, numim functie de repartitie conditionata
de evenimentul A, functia data de
F (x|A) = P ({X < x}|A) =

P ({X < x} A)
.
P (A)

Toate proprietatile functiei de repartitie se pastreaza; mentionam


F (+|A) = 1; F (|A) = 0.
Sa demonstram urmatoarea formula
P ({a

X < b}|A) = F (b|A) F (a|A).

(3.5)

Intr-adevar, daca a < b avem {X < a} {X < b} si


P ({a

X < b}|A) =

P ({a

P (({X < b} A) \ ({X < a} A))


X < b} A)
=
=
P (A)
P (A)

P ({X < b} A) P ({X < a} A)


= F (b|A) F (a|A).
P (A)
Ne intereseaza n continuare, pentru numeroasele aplicatii practice, unele cazuri particulare ale evenimentului A.
=

1. Daca A = {X < a} si F (a) = P ({X < a}) = 0, atunci

F (x)
P ({X < x} {X < a})
, daca x a
=
F (x|A) =
F (a)

P ({X < a})


1,
daca x > a.

90

Variabile aleatoare continue


Deci obtinem

F (x)
,
F (x|{X < a}) =
F (a)

1,

daca x

(3.6)

daca x > a.

In Figura 3.1 sunt ilustrate cele doua functii.


2. Fie A = {a

X < b} astfel ca P (A) = F (b) F (a) = 0. Deducem imediat ca

0,
daca x a,

F (x) F (a)
, daca a < x b,
F (x|{a X < b}) =
(3.7)

F (b) F (a)

1,
daca x > b.

Demonstram urmatoarea formula, care se dovedeste utila n aplicatii. In ipotezele precedente are loc
P (A|{a

X < b}) =

(F (b|A) F (a|A))P (A)


.
F (b) F (a)

(3.8)

Aceasta rezulta imediat


P (A|{a
=

P ({a

X < b}) =

P (A {a X < b})
=
P ({a X < b})

X < b}|A)P (A)


(F (b|A) F (a|A))P (A)
=
.
F (b) F (a)
F (b) F (a)

In ultima relatie s-a folosit (3.5).

3.2

Densitatea de probabilitate. Repartitia normal


a

Fie {E, K, P } un camp borelian de probabilitate. Consideram o clasa de variabile


aleatoare X pentru care exista o functie f : IR IR+ cu un numar finit de puncte de
discontinuitate de prima speta, ce satisface relatia
x

f (t)dt,

F (x) =

(3.9)

unde F (x) este functia de repartitie a variabilei X.


Functia f se numeste densitate de probabilitate.
Daca f este continua n x IR, atunci F este derivabila n x si
F (x) = f (x).
Acest lucru rezulta imediat daca se aplica teorema de medie n integrala Riemann si
continuitatea lui f . Intr-adevar,
F (x + x) F (x)
= lim
lim
x0
x0
x

x+x
x

f (t)dt
= f (x).
x

Variabile aleatoare continue

91

Daca a, b IR si F este continua, atunci


P ({a

X < b}) =

b
a

f (x)dx.

Daca n relatia (3.9) trecem la limita pentru x tinzand la si folosim faptul ca lim F (x) = 1,
x
deducem
+

f (t)dt = 1.

(3.10)

Reciproc, daca o functie f : IR IR+ , cu un numar finit de puncte de discontinuitate


de prima speta, satisface (3.10), atunci ea este integrabila pe orice interval de forma
(, x), x IR, deoarece
x

f (x)dt

f (t)dt = 1

si functia F : IR IR, definita prin


x

F (x) =

f (t)dt,

satisface conditiile propozitiei (3.1.4), deci este o functie de repartitie, daca tinem cont
de observatia facuta dupa aceasta propozitie.
Repartitia uniform
a. Vom nota cu X : U (a, b) o variabila aleatoare uniform repartizata pe intervalul (a, b), a, b IR, daca densitatea de probabilitate este data de
f (x) =

1
, daca a
ba
0,
n rest.

Se constata imediat ca este ndeplinita conditia (3.10). Functia de repartitie este data de

0,
x
xa
,
F (x) =
f (t)dt =

ba
1,

daca x

a,

daca a < x

b,

daca x > b.

Graficele celor doua functii sunt reprezentate n figurile 3.2 si 3.3.


Exemplul 3.2.1 Daca efectuam masuratori de precizie, iar rezultatul este cuprins ntre
k si k + 1 unitati, convenind sa-l aproximam cu k + 1/2, comitem o eroare care poate fi
presupusa uniform repartizata pe intervalul (1/2, 1/2), deci are densitatea
f (x) =

1,
0,

daca x [1/2, 1/2],


n rest.

92

Variabile aleatoare continue

Repartitia normal
a. Variabila aleatoare X este distribuita normal cu parametrii
m IR, > 0 si vom nota X : N (m, 2 ), daca are densitatea de probabilitate
(xm)2
1

2 2 ,
f (x) =
e
x IR.
(3.11)
2
Observam ca f (x) 0. Pentru calculul integralei din conditia (3.10) facem schimbarea
xm
de variabila y =
si obtinem

1
f (x)dx =
2

(xm)2
1

2 2 dx =
e
2

y
e 2 dy = 1.

Pentru calculul ultimei integrale vezi Anexa 3.


Daca m = 0 si = 1, repartitia se mai numeste normata si are densitatea
1 x2

(3.12)
f (x) =
e 2.
2
Graficul este cunoscut sub numele de clopotul lui Gauss. Se constata ca acesta este
1
simetric fata de dreapta x = m, pentru x = m functia f are maxim egal cu f (m) = 2
,
iar punctele m sunt puncte de inflexiune. Pentru constant si m variabil, graficul se
transleaza corespunzator. Daca m este constant, iar variabil se constata ca punctul de
maxim variaza invers proportional n raport cu . In Figura 3.4 se poate constata cum
variaza densitatea n functie de . Functia de repartitie F are graficul dat de Figura 3.5
si se poate determina numeric, daca se cunosc valorile functiei lui Laplace , care se
defineste prin
z
x2
1
e 2 dx, z IR.
(z) =
2 0
Se verifica usor ca (z) = (z) , ceea ce permite tabelarea functiei doar pentru valori
pozitive. Mai observam ca are loc relatia
z

1
lim
z
2

x2
1
e 2 dx = .
2

(3.13)

Sa exprimam functia de repartitie cu ajutorul functiei lui Laplace. In integrala F (x) =


tm
x
= u si obtinem
f
(t)dt
facem
schimbarea
de
variabil
a

1
F (x) =
2
1
= (
2

u
e 2 du =

xm

u
e 2 du +

xm

u2

e 2 du) =

1
xm
+ (
).
2

In ultima egalitate s-a folosit relatia (3.13). Se obtine astfel formula


F (x) =

xm
1
+ (
).
2

(3.14)

Variabile aleatoare continue


Din (3.14), folosind faptul ca P ({a
P ({a

93
X < b}) = F (b) F (a), deducem

X < b}) = (

am
bm
) (
).

Probabilitatea ca abaterea fata de m, notata |X m| sa nu depaseasca > 0, este data


de
P ({|X m| < }) = 2( ).

Regula celor 3. O variabila normal repartizata X : N (m, 2 ) ia valori semnificative n


intervalul (m 3, m + 3). Intr-adevar, P ({|X m| 3}) = 1 P ({|X m| < 3}) =
1 2(3) = 0, 0027, valoare care n unele situatii poate fi neglijata.
Exemplul 3.2.2 Durata de functionare a unei baterii este o variabila aleatoare, notata X, repartizata normal N (m, 2 ), unde m = 120 zile reprezinta timpul mediu de
functionare, iar = 10 zile reprezinta abaterea fata de medie (aceste notiuni vor fi introduse si studiate si n cazul continuu n Capitolul 3.4). Determinati
a. probabilitatea ca bateria sa functioneze cel putin 100 de zile;
b. probabilitatea ca bateria sa functioneze ntre 100 si 150 de zile;
c. intervalul de timp n care se poate presupune ca bateria functioneaza aproape sigur.
a. P ({X
100}) = 1 P ({X < 100}) = 1 F (100) = 1 ( 12 + ( 100120
)) =
10
1
+ (2) = 0, 97725;
2
b. P ({100 X 150}) = ( 150120
) ( 100120
) = (3) + (2) = 0, 9759;
10
10
c. Aplicnd regula celor 3, gasim intervalul cautat de forma |X m| < 3, deci
bateria functioneaza aproape sigur ntre 90 si 150 zile.
Exemplul 3.2.3 Repartitia erorilor accidentale de masurare. Alte tipuri de erori decat cele
datorate aproximarilor (n cazul masuratorilor de precizie) sunt cele accidentale. Notam cu
X eroarea comisa la efectuarea unei masuratori, care este o variabila aleatoare. Daca valoarea exacta a marimii este r, prin efectuarea a n masuratori obtinem valorile r1 , r2 , . . . , rn
aproximative si erorilor ek = r rk , k = 1, . . . n. Sa determinam o functie derivabila, f ,
care sa fie densitatea de probabilitate a variabilei X. Probabilitatea ca eroarea sa fie
cuprinsa n intervalul [ek , ek + hk ], k = 1, . . . , n, cu hk suficient de mic poate fi aproximata
cu f (ek )hk , iar n cele n masuratori independente este produsul
p(r) = h1 f (e1 )h2 f (e2 ) . . . hn f (hn ) = h1 h2 . . . hn f (r r1 ) . . . f (r rn ).
Legea numerelor mari (care va fi studiata amanuntit n Capitolul 4) ne permite sa luam
ca valoare cea mai probabila media aritmetica, notata
r =

1
(r1 + . . . rn ).
n

Deci r este un punct de maxim pentru p(r). Notam cu g(r) = f (r r1 ) . . . f (r rn ). Din


conditia p (
r) = 0, rezulta g (
r) = 0. Are loc
n

g (r)
=
g(r)

f (r r1 ) . . . f (r ri1 )f (r ri )f (r ri+1 ) . . . f (r rn )
i=1

f (r r1 ) . . . f (r rn )

94

Variabile aleatoare continue


n

=
i=1

f (r ri )
.
f (r ri )
n

Din definitia mediei, rezulta (


r r1 ) + . . . + (
r rn ) = 0, deci
k=1

atunci scrie
g (r)
0=
=
g(r)

(
r rk ) = 0. Putem

k=1

f (r rk )
c
(r rk ) =
f (r rk )
k=1

f (r rk )
c(r rk ) .
f (r rk )

k=1

Punem conditia ca termenul general al sumei sa se anuleze. Aceasta conduce la ecuatia


diferentiala
f (x)
= cx
f (x)
x2
cu solutia f (x) = ke 2 . Sa determinam constantele k si c, astfel ca f (x) sa fie o densitate
1
de probabilitate. Punand conditia (3.10), gasim c < 0, k > 0. Daca notam 2 = ,
c
1
gasim k = si
2
x2
1

2
2
f (x) =
.
e
2
c

Deci erorile accidentale de masurare se repartizeaza dupa legea N (0, 2 ). Constanta


1
h = 2
se numeste precizia masuratorii.
Exemplul 3.2.4 O variabila aleatoare X este repartizata normal N (0, 2 ). Dat un
interval (, ), cu < 0, > 0, sa determinam valoarea , astfel ca probabilitatea
P ({X (, )}) sa fie maxima. Are loc evident

1
P ({ < X < }) = ( ) ( ) =

t2

dt

t2

e 2 dt .

Anulam derivata n raport cu a integralei cu parametru si gasim


1

e 22 (

2
2
2
2
2 (
)

e
)
2
2 2

= 0.

Deducem
=

2 2
.
2(ln ln ||)

In practica apar des situatii n care o variabila aleatoare continua este suma dintre
o variabila aleatoare discreta si o variabila aleatoare continua. Ca aplicatie a formulei
probabilitatii totale se poate deduce densitatea de probabilitate.

Variabile aleatoare continue

95

Exemplul 3.2.5 Fie X o variabila aleatoare discreta care are repartitia:


X:

xi
pi

, i = 1, . . . n

si Y o variabila aleatoare continua care are densitatea de probabilitate f (x). Sa determinam densitatea de probabilitate a variabilei aleatoare Z = X + Y , daca X si Y sunt
independente. Consideram sistemul complet de evenimente Ai = {X = xi }, i = 1, . . . n
si sa exprimam functia de repartitie a variabilei aleatoare Z.
n

FZ (x) = P ({X + Y < x}) = P

({X + Y < x} Ai )

i=1
n

P ({Y + xi < x})P (Ai ) =


i=1

pi P ({Y < x xi }).


i=1

Prin derivare gasim

fZ (x) =

pi fY (x xi ).
i=1

Exemplul 3.2.6 O variabila aleatoare continua are densitatea de probabilitate f1 (x) cu


probabilitatea p1 si densitatea de probabilitate f2 (x) cu probabilitatea p2 , cu p1 + p2 =
1. Gasiti expresia densitatii de probabilitate si a functiei de repartitie a variabilei X.
Consideram sistemul complet de evenimente Ai , i = 1, 2, unde evenimentul Ai reprezinta
faptul ca X are densitatea de probabilitate fi . Atunci functia de repartitie este data de
F (x) = P ({X < x}) = P (A1 )P ({X < x}|A1 ) + P (A2 )P ({X < x}|A2 ) =
= p1 F1 (x) + p2 F2 (x).
Functia de densitate este atunci
f (x) = p1 f1 (x) + p2 f2 (x).
Densit
ati de probabilitate conditionate. Fie X o variabila aleatoare continua si
A K, cu probabilitatea P (A) = 0. Presupunem ca X are densitatea de probabilitate f ,
atunci densitatea de probabilitate a lui X, conditionat
a de A este data n punctele ei de
continuitate de derivata functiei de repartitie conditionata
f (x|A) = F (x|A).
1. Daca A = {X < a}, prin derivarea formulei (3.6) se obtine

f (x)
, daca x a,
f (x|A) =
F (a)

0,
daca x > a.
X < b} prin derivarea relatiei (3.7) gasim

f (x)

, daca a < x
f (x|{a X < b} =
F (b) F (a)

0,
n rest.

(3.15)

2. Daca A = {a

b,

(3.16)

96

Variabile aleatoare continue

Exemplul 3.2.7 Fie X : N (m, 2 ). Sa determinam f (x|{|X m| k}). Observam ca


P ({|X m| k}) = 2(k) si nlocuim n (3.16). Deci

(x m)2


2 2 , daca |x m| k
e
22(k)
f (x|{|X m| k}) =
.

0,
n rest
Exemplul 3.2.8 Fie T variabila aleatoare care da timpul de functionare pana la prima
defectare. Sa determinam F (x|{T
t}) si f (x|{T
t}). Observam ca P ({T
t}) =
1 F (t), probabilitate care va fi definita ca functie de fiabilitate n Capitolul 3.7. Gasim

F (x) F (t)

, daca x t,

1 F (t)
F (x|{T t}) =

0,
daca x < t.
f (x|{T

t}) =

f (x)
=
1 F (t)

f (x)
+

, x

t.

f (x)dx
t

Formula probabilit
atii totale. Formula lui Bayes.
Vom da versiunea continua a formulelor prezentate n Capitolul 1.6. Consideram
evenimentul {X = x} unde X este o variabila aleatoare continua, deci admite functie de
repartitie continua. Atunci avem P ({X = x}) = 0. In unele situatii putem totusi defini
P (A|{X = x}), n sensul existentei urmatoarei limite
P (A|{X = x}) = lim P (A|{x

X < x + x}) =

x0

= lim

x0

f (x|A)P (A)
(F (x + x|A) F (x|A))P (A)
=
.
F (x + x) F (x)
f (x)

In sirul de egalitati s-a folosit formula (3.8). Daca integram pe IR relatia


P (A|{X = x})f (x) = f (x|A)P (A)
obtinem

P (A|{X = x})f (x)dx =

f (x|A)P (A)dx =

= P (A)(F (+|A) F (|A)) = P (A).


Relatia obtinuta se numeste formula probabilit
atii totale n cazul continuu si este
+

P (A) =

P (A|{X = x})f (x)dx.

Formula lui Bayes n cazul continuu este


f (x|A) =

P (A|{X = x})f (x)


+

P (A|{X = x})f (x)dx

(3.17)

Variabile aleatoare continue

97

Exemplul 3.2.9 Densitatea de probabilitate a defectarii unei valve radio n momentul


deschiderii este q(v). Voltajul V este aleator si are repartitie N (m, 2 ). Sa gasim probabilitatea evenimentului A, care semnifica faptul ca la momentul deschiderii valva s-a
defectat. Vom folosi formula (3.17)
+

q(v)f (v)dv =

P (A) =

3.3

1
2

q(v)e

(vm)2
2 2

dv.

Functia de repartitie multidimensional


a. Transform
ari

Fie {E, K, P } un camp borelian de probabilitate si X1 , . . . , Xn , variabile aleatoare.


Definitia 3.3.1 Functia notata (X1 , . . . , Xn ) : E IRn , definita prin
(X1 , . . . , Xn )(e) = (X1 (e), . . . , Xn (e)),
se numeste variabila aleatoare n-dimensionala.
Pentru (x1 , . . . , xn ) IRn , notam
n

{X1 < x1 , X2 < x2 , . . . , Xn < xn } =

{Xi < xi }
i=1

si observam ca acesta este un element al lui K.


Definitia 3.3.2 Functia F : IRn IR, definita prin
F (x1 , x2 , . . . , xn ) = P ({X1 < x1 , . . . , Xn < xn }),
se numeste functie de repartitie n dimensionala.
Fara a intra n detalii de demonstratie, amintim ca pentru functia de repartitie n-dimensionala au loc proprietatile:
1. F este nedescrescatoare n fiecare argument;
2. F este continua la stanga n fiecare argument;
3. F (+, . . . , +) = 1;
4. Pentru orice k = 1, . . . n, are loc
lim F (x1 , . . . , xk , . . . , xn ) = 0, x1 . . . , xk1 , xk+1 . . . , xn IR.

xk

Numai satisfacerea acestor proprietati, nu implica faptul ca F este functie de repartitie,


pentru o variabila aleatoare n-dimensionala. Pentru ai , bi i = 1, . . . n se poate arata ca
P ({a1

X 1 < b 1 , . . . , an

Xn < bn }) =

98

Variabile aleatoare continue


n

= F (b1 , . . . , bn )

pi +
i=1

pijk + . . . + (1)n F (a1 , . . . an ),

pij
i<j

(3.18)

i<j<k

unde pij...k = F (c1 , c2 , . . . , cn ) , ci = ai , cj = aj , . . . , ck = ak , restul valorilor fiind cs = bs .


Sa exemplificam n cazul n = 2. Pentru aceasta evaluam
P ({a1

X1 < b1 , a2

X2 < b2 }) = P ({X1 < b1 , X2 < b2 })

P ({X1 < a1 , X2 < b2 }) P ({X1 < b1 , X2 < a2 }) + P ({X1 < a1 , X2 < a2 }) =


= F (b1 , b2 ) F (a1 , b2 ) F (b1 , a2 ) + F (a1 , a2 ),
a caror justificare este usor de constatat n Figura 3.6.
Vom da un exemplu de functie F care satisface proprietatile 1-4, dar nu este functie
de repartitie.
Exemplul 3.3.1 Sa definim
0,
1,

F (x1 , x2 ) =

daca x1
n rest.

0 sau x1 + x2

1 sau x2

0,

Aceasta va satisface conditiile 1-4, dar daca n formula precedenta luam a1 = a2 = 21 , b1 =


b2 = 1, gasim F (1, 1) F (1, 21 ) F ( 12 , 1) + F ( 12 , 12 ) < 0, care nu poate fi probabilitatea
unui eveniment.
Pentru ca F , o functie ce satisface conditiile 1-4, sa fie functie de repartitie mai trebuie
ndeplinita conditia ai , bi IR, i = 1, . . . n, membrul al doilea al formulei (3.18) este
pozitiv.
La fel ca n cazul unidimensional, vom considera o clasa de variabile aleatoare pentru care exista o functie pozitiva si continua cu exceptia unui numar finit de puncte
f (x1 , . . . , xn ), astfel ca
x1

F (x1 , . . . , xn ) =

xn

...

f (y1 , . . . , yn )dy1 . . . dyn .

Vom numi aceasta functie densitate de probabilitate n-dimensionala. Daca functia de


repartitie este continua, variabila aleatoare va fi numita continu
a . Densitatea de probabilitate se caracterizeaza prin

...

f (y1 , . . . , yn )dy1 . . . dyn = 1.

(3.19)

Mai observam ca n punctele de continuitate ale functiei f are loc


f (x1 , . . . , xn ) =

n F (x1 , . . . , xn )
.
x1 . . . xn

Daca variabila aleatoare n-dimensionala are densitate de probabilitate, probabilitatea din


formula (3.18) poate fi calculata astfel:
b1

P ({a1

X 1 < b 1 , . . . , an

Xn < bn }) =

bn

dx1 . . .
a1

f (x1 , . . . , xn )dxn .
an

Variabile aleatoare continue

99

In general, daca D IRn este un domeniu arbitrar, probabilitatea ca variabila aleatoare


n-dimensionala sa ia valori n D este data de formula
P ({(x1 , . . . , xn ) D}) =

...

f (x1 , . . . , xn )dx1 . . . dxn .


D

Definitia 3.3.3 Functiile definite de formulele


xi

FXi (xi ) =

du

...

f (x1 , . . . , xi1 , u, xi+1 , . . . , xn )dx1 . . . dxn

se numesc functii marginale de repartitie , iar derivatele lor, date de formulele


fXi (xi ) = FXi (xi ) =

...

f (x1 , . . . , xi1 , xi , xi+1 , . . . , xn )dx1 . . . dxi1 dxi+1 . . . dxn

se numesc densitati marginale de probabilitate.


In particular pentru n = 2, alegand notatii mai convenabile, densitatile marginale si
functiile marginale de repartitie, sunt date de formulele:
x

FX (x) =

du

f (u, v)dv, FY (y) =

dv

fX (x) =

f (x, v)dv, fY (y) =

f (u, v)du,

f (u, y)du.

Fie (X1 , . . . , Xn ) o variabila aleatoare continua. Variabilele aleatoare Xi sunt independente


daca si numai daca xi1 , . . . , xik IR, k = 1, . . . , n, are loc
P ({Xi1 < xi1 , . . . , Xik < xik }) = P ({Xi1 < xi1 }) . . . P ({Xik < xik }).
Aceasta afirmatie se deduce imediat din Propozitia 3.1.3. In particular pentru n = 2,
conditia revine la
F (x, y) = FX (x)FY (y).
Daca variabilele considerate au densitati de probabilitate, conditia de mai sus este echivalenta cu
f (x, y) = fX (x)fY (y).
(3.20)
Exemplul 3.3.2 Repartitia uniforma n-dimensionala are densitatea de probabilitate data
de
k, daca (x1 , . . . , xn ) D
f (x1 , . . . , xn ) =
,
0, n rest
unde D este un domeniu din IRn , marginit, iar k este astfel ales ncat sa aiba loc (3.19),
deci
1
.
k=
. . . D dx1 . . . dxn

100

Variabile aleatoare continue

In particular pentru n = 2 si D = [a, b] [c, d], avem

, daca (x, y) D,
f (x, y) =
(b a)(d c)
0,
n rest.
Sa determinam densitatile marginale.

fX (x) =

f (x, v)dv =

si analog,

1
dv =
(b a)(d c)

fY (y) =

1
, x [a, b]
ba
0,
n rest

1
, x [c, d],
dc
0,

n rest

Deci variabilele aleatoare marginale X si Y cu densitatile marginale fX , respectiv fY sunt


independente, deoarece este satisfacuta (3.20).
Transform
ari de variabile aleatoare.
Fie (X1 , . . . , Xn ) o variabila aleatoare pe campul borelian {E, K, P }. Consideram o
transformare inversabila ntre doua domenii , D IRn , deci o functie vectoriala de mai
multe variabile

x1 = 1 (y1 , . . . , yn )
..
(x1 , . . . , xn ) D, (y1 , . . . , yn )
.

x = (y , . . . , y )
n
n 1
n
si care satisface conditiile:
1. 1 , . . . , n sunt functii reale de clasa C 1 ();
1
1
...
y1
yn
D(1 , . . . , n )
.
..
..
= 0 pe .
2. J(y1 , . . . , yn ) =
=
...
.
D(y1 , . . . , yn )
n
n
...
y1
yn
In aceste conditii, compunerea dintre (X1 , . . . , Xn ) si inversa transformarii este tot
o variabila aleatoare, pe care o notam (Y1 , . . . , Yn ). Presupunem ca ambele variabile
aleatoare au densitati de probabilitate, pe care le notamfX1 ...Xn si fY1 ...Yn . Folosind schimbarea de variabile n integrala multipla, obtinem
...
D

...

fX1 ...Xn (x1 , . . . , xn )dx1 . . . dxn =

fX1 ...Xn (1 (y1 , . . . , yn ), . . . , n (y1 , . . . , yn )|J(y1 , . . . , yn )|dy1 . . . dyn ,

(3.21)

Variabile aleatoare continue

101

care se interpreteaza astfel: probabilitatea ca variabila aleatoare (X1 , . . . , Xn ) sa ia valori


n domeniul D, coincide cu probabilitatea ca (Y1 , . . . , Yn ) sa ia valori n domeniul .
Atunci densitatea de probabilitate pentru variabila aleatoare (Y1 , . . . , Yn ) este data de
fY1 ...Yn (y1 , . . . , yn ) =
= fX1 ...Xn (1 (y1 , . . . , yn ), . . . , n (y1 , . . . , yn )|J(y1 , . . . , yn )|.

(3.22)

Caz particular. Pentru n = 1, consideram transformarea x = (y) unde este de


clasa C 1 (D), D IR, inversabila. Formula precedenta devine
fY (y) = fX ((y))

d
.
dy

(3.23)

Exemplul 3.3.3 Daca X este o variabila aleatoare si facem transformarea Y = aX + b,


unde a, b IR, a = 0, atunci folosind relatia (3.23) gasim
fY (y) = fX

yb
a

1
.
|a|

In particular, daca X : N (m, 2 ), sa determinam densitatea de probabilitate a variabilei


aleatoare Y = aX + b, a = 0, nlocuind mai sus
fY (y) =

(
1
e
2

yb
m)2
a
2 2

1
=
|a|

(y(am+b))2
1

2a2 2
=
e
.
2|a|

deci Y este o variabila repartizata N (am + b, a2 2 ). Deci prin transformarea liniara a unei
variabile aleatoare normale se obtine tot o variabila normala. De aici se deduce imediat
ca, daca X : N (m, 2 )
X m
: N (0, 1).

Uneori este comod sa gasim densitatea de probabilitate calculand functia de repartitie a


variabilei aleatoare obtinute prin transformare, ca n urmatorul exemplu.
Exemplul 3.3.4 Daca X : N (m, 2 ) sa determinam densitatea variabilei aleatoare eX .
Notam Y = eX . Pentru y > 0, sa calculam
FY = P ({Y < y}) = P ({eX < y}) = P ({X < ln y}).
Prin derivare gasim
(ln ym)2
1

2 2
fY (y) = FY (y) = FX (ln y) =
e
.
2

Aceasta repartitie se numeste lognormal


a.

102

Variabile aleatoare continue

Exemplul 3.3.5 Erorile de masurare pentru doua marimi sunt X, Y independente si


repartizate uniform pe (0, 1). Sa determinam densitatile marginale ale sumei si diferentei
erorilor. Vom particulariza cazul general (facand o schimbare convenabila de notatii suma
si diferenta erorilor sunt variabile aleatoare definite prin
U =X +Y
V = X Y.
Inversa transformarii este

1
x = 1 (u, v) = (u + v)
2
1
y = 2 (u, v) = (u v)
2
iar iacobianul J(u, v) = 12 ; reprezentam n Figurile 3.7 si 3.8 domeniile D si . Din
ipoteza de independenta rezulta
fXY (x, y) = fX (x)fY (y).
Deci fU V (u, v) = 1| 1/2|, daca (u, v) si 0 n rest. Densitatea marginala este data
de

fU (u) =

fU V (u, v)dv.

Pentru calculul ei distingem cazurile


u
dv
1. 0 u 1, fU (u) =
= u;
u 2
2u
dv
2. 1 u 2, fU (u) =
= 2 u.
2
u2
Deci

daca 0
u,
2 u, daca 1
fU (u) =

0,
n rest.
si analog

v+1

2 ,
v + 1
fV (v) =
,

0, 2

u
u

daca 1
daca 0

1,
2,

v
v

0,
1,

n rest.

Exemplul 3.3.6 Un dispozitiv are doua componete ale caror durate de viata sunt variabile aleatoare independente, notate X si Y , cu densitatile

1
1
, daca y 1,
, daca x 1,
2
fX (x) =
fY (y) =
y2
x
0,
0,
n rest
n rest.

Variabile aleatoare continue

103

O masura pentru calitatea functionarii dispozitivului este U = XY . Sa determinam


densitatea de probabilitate a lui U . Facem schimbarea de variabile

U = XY
V =X
definita pe domeniul D cu inversa
x=v
2
y = uv
definita pe domeniul si avand iacobianul J(u, v) =
fXY (x, y) =

1
,
x2 y 2

2u
. Din conditia de independenta
v

daca x, y
n rest,

0,

iar
fU V (u, v) =

1,

2
.
u3 v

Reprezentam grafic cele doua domenii.


Densitatea marginala este
u2

fU (u) =

fU V (u, v)dv =
1

2
ln u
dv = 4 3 , u
3
uv
u

Exemplul 3.3.7 (Limitatorul). Fie functia

b, daca x b,
x,
daca b < x
g(x) =

b,
daca x > b.

1.

b,

Sa determinam functia de repartitie a variabilei aleatoare Y = g(X), unde X este o


variabila aleatoare cu functia de repartitie FX .
Daca y b evenimentul g(X) < y nu se realizeaza pentru nici un x, deci FY (y) = 0.
Daca b < y b, FY (y) = FX (y).
Daca b < y, FY (y) = 1.
Exemplul 3.3.8 Repartitia normala n-dimensionala. Consideram functia definita de

det A 1/2(XM )t A(XM )


e
,
(3.24)
f (x1 , . . . , xn ) =
(2)n/2
unde A = (aij )i,j=1...n este o matrice simetrica, deci A = At si care are proprietatea ca
forma patratica
(X M )t A(X M ) =

aij (xi mi )(xj mj )


i

104

Variabile aleatoare continue

este pozitiv definita. X si M reprezinta:

x1

X = ... , M =
xn

m1
.. .
.
mn

Presupunem pentru nceput ca m1 = . . . = mn = 0. Reamintim ca n acest caz exista o


matrice ortogonala H (cu proprietatea HH t = In , unde In este matricea unitate), pentru
care forma patratica are forma canonica
n

X t AX =

i yi2 ,
i=1

unde i sunt valorile proprii ale lui A, care n cazul nostru sunt strict pozitive. Dupa cum
stim det A = 1 . . . n . Sa verificam satisfacerea conditiei (3.19). Facem schimbarea de
variabile X = HY si observam ca determinantul functional
D(x1 , . . . , xn )
= det H = 1
D(y1 , . . . , yn )
deoarece H este o matrice ortogonala. Avem atunci
n

aij xi xj

12

...

dx1 . . . dxn =

i=1

IRn
n

i yi2

12

...

IRn

i=1

Facem n ultima integrala substitutia yi =

12 i yi2

det Hdy1 . . . dyn =

i=1

zi
i

1
dyi =
i

e 2 i yi dyi .

si gasim

z2
2i

2
dzi = .
i

Efectuand calculele obtinem


n

i=1

(2) 2
2
(2) 2
=
.
=
i
1 . . . l n
det A

Daca revenim la cazul general, prin substitutia X M = Y , situatia se reduce la satisfacerea conditiei m1 = . . . = mn = 0.
Semnificatia coeficientilor matricei A si unele proprietati vor fi studiate n Capitolul 3.5.
Vom da cazuri particulare ale legii normale.
Variabila aleatoare normal
a bidimensional
a.

Variabile aleatoare continue

105

Daca variabilele marginale X, Y sunt independente, atunci densitatea de probabilitate


bidimensionala are o forma foarte simpla
1
1
f (x, y) =
e 2
2x y

(ymy )
(xmx )2
+
2
2
x
y

(3.25)

Daca D = [a, b] [c, d] IR2 , atunci


P ({(X, Y ) D}) =

b mx
a mx
) (
)
x
x

d my
c my
) (
) .
y
y

Sa consideram un domeniu Dk delimitat de elipsa de egal


a probabilitate, adica elipsa n
ale carei puncte densitatea de probabilitate este constanta k > 0. Elipsa are ecuatia
(ymy )2
(xmx )2
+
= k 2 . Observam ca semiaxele elipsei sunt a = kx , b = ky . Atunci are
2
x
y2
loc
k2

P ({(X, Y ) Dk }) = 1 e 2

(3.26)

Aceasta rezulta imediat daca facem n integrala dubla schimbarea de variabile de forma
x mx = x cos
y my = y sin

0<

k, [0, 2).

Dupa efectuarea calculelor obtinem


x y
f (x, y)dxdy =
2x y
Dk

d
0

e 2 d,

de unde (3.26).
Exemplul 3.3.9 Repartitia Rayleigh Daca x = y = si mx = my = 0, distanta R
a unui punct aleator (X, Y ) la origine are repartitia Rayleigh. Inlocuind n (3.25),
densitatea de probabilitate are forma
f (x, y) =

2
1 12 x2 +y
2 .
e
2 2

Facem schimbarea de variabile


x = r cos
y = r sin

r > 0 [0, 2)

si densitatea de probabilitate a variabilei (R, ) este


fR (r, ) =

r r22
e 2 ,
2 2

iar densitatea marginala a variabilei R este


f (r) =

r r22
e 2 .
2

106

Variabile aleatoare continue

Variabila aleatoare normal


a tridimensional
a.
Daca variabilele marginale X, Y, Z sunt independente, densitatea de probabilitate este
f (x, y, z) =

12

(2) 2 x y z

(ymy )2
(xmx )2
(zmz )2
+
+
2
2
2
x
y
z

La fel ca n cazul bidimensional probabilitatea ca variabila (X, Y, Z) sa ia valori ntrun elipsoid Dk , pe a carui suprafata densitatea ia valori constante, elipsoid de egal
a
probabilitate, este
2 k2
P ({(X, Y, Z) DK }) = 2(k)
ke 2 .

Elipsoidul are semiaxele a = kx , b = ky c = kz .


Operatii cu variabile aleatoare continue.
Vom deduce formule de calcul pentru densitatile de probabilitate ale sumei, diferentei, produsului si catului de variabile aleatoare continue. Vom alege de fiecare data
transformari convenabile si vom utiliza formula (3.22).
Suma de variabile aleatoare continue.
Fie (X, Y ) o variabila aleatoare continua cu densitatea de probabilitate fXY . Consideram transformarea:
u=x+y
,
v=x
care admite inversa

x=v
y =uv

si iacobianul J(u, v) = 1. Din (3.22) deducem ca densitatea de probabilitate a variabilei


aleatoare (U, V ) este fU V (u, v) = fXY (v, u v)| 1|. Luand densitatea marginala, gasim

fU (u) =

fXY (v, u v)dv.

(3.27)

Daca X si Y sunt independente fXY (v, u v) = fX (v)fY (u v) si densitatea sumei este


produsul de convolutie al densitatilor fX , fY , adica

fU (u) =

fX (v)fY (u v)dv.

(3.28)

Exemplul 3.3.10 Sa determinam suma de variabile aleatoare independente repartizate


1
uniform pe intervalul (a, b). Densitatea de probabilitate are valoarea ba
pe intervalul
[a, b] si 0 n rest. Vom folosi (3.28).
+

fX+Y (x) =

1
f (y)f (x y)dy =
ba

xb

f (x y)dy.
xa

Variabile aleatoare continue

107

In ultima integrala facem schimbarea de variabila x y = t, si obtinem


fX+Y (x) =

1
ba

Comparnd x a si x b cu a si b obtinem

0,

x2a ,
(ba)2
fX+Y =
2bx

2,
(ba)

0,

xa

f (t)dt.
xb

x < 2a
2a x < a + b
.
a + b x < 2b
x 2b

Graficul densitatii de probabilitate este dat de Figura 3.11.


Diferent
a de variabile aleatoare continue.
Consideram transformarea

u=xy
v=x

cu inversa

x=v
,
y =vu

iar fU V (u, v) = fXY (v, v u). Densitatea marginala a diferentei este

fXY (v, v u)dv,

fU (u) =

iar n caz de independenta

fU (u) =

fX (v)fY (v u)dv.

Produs de variabile aleatoare.


Consideram transformarea

u = xy
,
v=x

cu inversa

x=v
y = uv

si iacobianul J(u, v) = v1 . Densitatea de probabilitate este


u 1
fU V (u, v) = fXY (v, ) .
v |v|
Deducem

fU (u) =

u dv
fXY (v, ) ,
v |v|

(3.29)

108

Variabile aleatoare continue

iar n caz de independenta

fU (u) =

fX (v)fV

u dv
.
v |v|

(3.30)

C
atul a dou
a variabile aleatoare continue.
Consideram transformarea

u = xy
v=y

cu inversa

x = uv
y=v

si iacobianul J(u, v) = v. Se obtine densitatea de probabilitate

fU (u) =

fXY (uv, v)|v|dv,

care n caz de independenta devine

fU (u) =

fX (uv)fY (v)|v|dv.

(3.31)

Probabilit
ati si functii de repartitie conditionate.
Daca X, Y sunt variabile aleatoare discrete, notiunile de probabilitati conditionate
au fost definite prin n Capitolul 2.4. Fie X este o variabila aleatoare discreta, iar Y o
variabila aleatoare continua; definim functia de repartitie a lui Y conditionata de X prin
FY (y|xk ) =

P ({Y < y, X = xk })
P ({X = xk })

daca P ({X = xk }) > 0. Daca functia de repartitie conditionata este derivabila, definim
densitatea de probabilitate prin formula
fY (y|xk ) =

d
FY (y|xk ).
dy

Pentru A K , are loc


P ({Y A|X = xk }) =

fY (y|xk )dy.
A

In cazul n care X, Y sunt independente, se obtin imediat


FY (y|x) = FY (y); fY (y|x) = fY (y).

Variabile aleatoare continue

109

Exemplul 3.3.11 Intr-un canal de comunicatie intrarea este o variabila X, care poate
lua valorile +1 volt , 1 volt cu aceeasi probabilitate. Iesirea Y = X + N unde N este
zgomotul ce poate fi considerat o variabila aleatoare repartizata uniform pe intervalul
(2, 2). Sa determinam probabilitatea P ({X = 1, Y < 0}).
Folosind formula probabilitatilor conditionate, avem
P ({X = 1, Y < y}) = P ({Y < y}|{X = 1})P ({X = 1}) = FY (y|1)P ({X = 1}).
Functia de repartitie a lui Y conditionata de {X = 1} este
FY (y|1) = P ({N + 1 < y}) = P ({N < y 1}) = FN (y 1),
unde FN este functia de repartitie a variabilei

0,
x+2
,
FN (x) =
4
1,

uniforme, care are expresia


x 2,
2 x
2 < x.

Deci FY (y|1) = P ({Y < y|X = 1}) = y+1


, 1
4
11
1
astfel P ({X = 1}|{Y < 0)}) = 4 2 = 8 .

2,
3, iar probabilitatea cautata este

Fie (X, Y ) o variabila aleatoare bidimensionala continua cu densitatea de probabilitate


fXY continua si fX = 0 densitatea marginala continua. Definim functia de repartitie a
variabilei Y conditionata de {X = x} prin limita urmatoare, daca exista
P ({Y < y, x X < x + h})
FY (y|x) = lim
=
h0
P ({x X < x + h})

x+h
fXY (x
x
x+h
fX (x
x

, y )dx dy
)dx

Folosind teoreme de medie pentru cele doua integrale, gasim


FY (y|x) =

fXY (x, y )dy


.
fX (x)

Prin derivare obtinem densitatea de probabilitate


fY (y|x) =

fXY (x, y)
.
fX (x)

Daca X, Y sunt independente, au loc


fY (y|x) = fY (y), FY (y|x) = FY (y).
Analog se deduce

fXY (x , y)dx
.
fY (y)
Prin derivare obtinem densitatea de probabilitate conditionata
FX (x|y) =

fX (x|y) =

fXY (x, y)
.
fY (y)

(3.32)

110

Variabile aleatoare continue

Exemplul 3.3.12 Fie variabila aleatoare (X, Y ) cu densitatea


2ex ey , 0 y x < +,
0,
n rest.

fXY (x, y) =

Sa determinam densitatile de probabilitate conditionata. Pentru nceput aflam densitatile


marginale
x

fX (x) =

2ex ey dy = 2ex (1 ex ), 0

x < +

si

fY (y) =

2ex ey dx = 2e2y , 0

y < +.

Folosind formulele precedente, avem


fX (x|y) =
si

2ex ey
= e(xy) , y
2e2y

2ex ey
ey
fY (y|x) = x
=
, 0
2e (1 ex )
1 ex

x.

Formula probabilitatii totale si formula lui Bayes se pot generaliza si n acest caz. Relatia
(3.32) poate fi scrisa sub forma
fXY (x, y) = fY (y|x)fX (x)
si aplicand definitia probabilitatii marginale, obtinem formula probabilit
atii totale:
+

fY (y|x)fX (x)dx

fY (y) =

si formula lui Bayes


fY (y|x) =

fX (x|y)fY (y)
.
fX (x)

In practica intervin si alte tipuri de probabilitati conditionate. Lasam ca exercitii,


stabilirea urmatoarelor formule. Daca evenimentul ce conditioneaza este {X < x} si
FX (x) = 0 avem
FY (y|{X < x}) =
fY (y|{X < x}) =

x
f (x , y)dx
XY
+ x
f (x , y )dx
XY

Daca evenimentul care conditioneaza este {x1


FY (y|{x1

X < x2 }) =

fY (y|{x1

FXY (x, y)
,
FX (x)
dy

X < x2 } si FX (x1 ) = FX (x2 ) avem

FXY (x2 , y) FXY (x1 , y)


,
FX (x2 ) FX (x1 )

X < x2 }) =

x2
x1

fXY (x, y)dx

FX (x2 ) FX (x1 )

Variabile aleatoare continue

3.4

111

Valori caracteristice ale unei variabile aleatoare

Medii si momente.
Definitia 3.4.1 Daca X este o variabila aleatoare avand functia de repartitie F (x), numim medie, numarul dat de

M [X] =

xdF (x).

(3.33)

Integrala din (3.33) este de tip Riemann-Stieltjes (vezi Anexa 1). Daca X are densitate de
probabilitate continua f (x), atunci integrala din definitie se reduce la o integrala Riemann
si avem

M [X] =

xf (x)dx

(3.34)

Sa observam ca integrala improprie din definitie s-ar putea sa nu fie convergenta. De


exemplu, variabila aleatoare repartizata Cauchy, cu densitatea de probabilitate
f (x) =

1
, x IR
(1 + x2 )

nu are medie, deoarece integrala (3.34) este divergenta. Reamintim ca o variabila aleatoare
este continua, daca are functia de repartitie continua. Mai general, daca F are c1 , . . . , cn
puncte de discontinuitate (evident de prima speta), media se obtine exprimand integrala
Stieltjes (vezi Anexa 1) ca o suma dintre o integrala Riemann si o suma de salturi.

M [X] =

f (x)dF (x) =

ck (F (ck + 0) F (ck 0)).

xf (x)dx +

k=1

Exemplul 3.4.1 Sa determinam media variabilei aleatoare repartizate normal N (m, 2).

Facem n integrala schimbarea de variabila y = xm


si obtinem
2

xf (x)dx =

M [X] =

m
2

=
ey dy +

deoarece ultima integrala este 0.

1
2
2

(m +

2y)ey

2dy =

1 2
( ey ) dy = m,
2

Daca X are media m si admite densitate de probabilitate nesimetrica, cele doua arii
determinate de x = m pot fi neegale. Astfel daca X reprezinta o caracteristica numerica
studiata ntr-o colectivitate statistica, are nteles afirmatia ca majoritatea indivizilor au
caracteristica X mai mica decat media.
Regasim si n cazul continuu aceleasi proprietati pentru medie, pe care le-am ntalnit
n cazul discret.

112

Variabile aleatoare continue

Propozitia 3.4.1 Dac


a X si Y sunt variabile aleatoare ce au medii, atunci X + Y are
medie si
M [X + Y ] = M [X] + M [Y ].
(3.35)
Demonstratie. Vom demonstra aceasta propozitie n cazul particular n care X si Y au
densitati de probabilitate fX , respectiv fY . Folosind densitatea de probabilitate a sumei,
(3.27), avem

M [X + Y ] =

xdx

fXY (y, x y)dy =

dy

xfXY (y, x y)dx.

Ultima egalitate se datoreaza posibilitatii de a schimba ordinea de integrare. In ultima


integrala facem schimbarea de variabila x y = z si obtinem

M [X + Y ] =

dy

zfX (z)dz = M [X] + M [Y ].

yfY (y)dy +

fXY (y, z)dz+

fXY (y, z)dy =

zdz

ydy

(y + z)fXY (y, z)dz =

Proprietatea se poate extinde pentru un numar finit de variabile aleatoare.


Propozitia 3.4.2 Dac
a X si Y sunt variabile aleatoare independente ce admit medii,
atunci produsul XY are medie si
M [XY ] = M [X]M [Y ].

(3.36)

Demonstratie. Vom folosi formula care defineste densitatea produsului de variabile aleatoare (3.30), presupunand ca X si Y au densitati de probabilitate fX , fY .

xdx

M [XY ]) =

x
y

fX (y)fY

dy
.
|y|

In ultima integrala facem schimbarea x = yz si inversam ordinea de integrare. Gasim

dy

M [XY ] =

xfX (y)fY

x
y

dx
=
|y|

dy

yzfX (y)fY (z)dz =

= M [X]M [Y ].
Daca o variabila aleatoare nu are medie, alte caracteristici numerice care studiaza
tendinta centrala sunt modul si mediana. Mediana a fost definita de (3.4) si ea exista pentru orice variabila aleatoare. De exemplu, n cazul repartitiei Cauchy, datorita
simetriei fata de axa Oy, mediana este me = 0, iar n cazul repartitei normale este m.
Definitia 3.4.2 mo se numeste modul pentru variabila aleatoare X cu densitatea de probabilitate f (x), daca este un punct de maxim pentru f (x).

Variabile aleatoare continue

113

O variabila aleatoare poate fi unimodal


a, bimodal
a etc, dupa cum densitatea de probabilitate are unul sau mai multe puncte de maxim local.
Media unei transform
ari de variabil
a aleatoare.
Daca X este o variabila aleatoare, iar y = (x) este o tansformare de clasa C 1 ,
inversabila, media variabilei Y = (X) daca exista, este data de formula
+

M [Y ] =

(x)fX (x)dx.

(3.37)

Aceasta rezulta daca facem n integrala care defineste media


+

M [Y ] =

yfY (y)dy

schimbarea de variabila si aplicam relatia (3.23), unde este transformarea inversa.


Exemplul 3.4.2 Daca X : U (0, 2), sa determinam media variabilei Y = cos X. Aplicand formula (3.37), avem
2

M [Y ] =

cos x
0

1
dx = 0.
2

Reamintim ca daca X este o variabila aleatoare, numarul k = M [X k ], k IN (daca


exista), se numeste moment initial de ordin k. Momentul initial de ordin k se calculeaza
dupa formula

k =

xk f (x)dx,

(3.38)

daca variabila aleatoare X are densitatea de probabilitate f . Aceasta formula rezulta


daca aplicam (3.37) variabilei (x) = X k . Observam ca 1 = M [X].
Momentul centrat de ordin k se defineste prin k = M [(X M [X])k ]. Daca X are
densitatea de probabilitate f , atunci folosind din nou (3.37), momentul centrat are expresia

k =

(x 1 )k f (x)dx.

Intre momentele initiale si cele centrate au loc relatiile urmatoare, care se demonstreaza
fara dificultate:
k

k
i

k =

(1)
i=0

Cki ki 1i ;

Cki ki 1i .

k =

(3.39)

i=0

Reamintim ca 2 se numeste dispersie sau variant


a si se noteaza D2 [X], iar D[X] se
numeste abaterea medie patratic
a. Aceste caracteristici au aceleasi proprietati ca n cazul
discret, demonstratia lor nefiind dificila.

114

Variabile aleatoare continue

Exemplul 3.4.3 Sa calculam momentele centrate ale repartitiei normale N (m, 2 ). Avem

(xm)2
1
k =
(x m)k e 22 dx,
2

n care facem schimbarea de variabila x m = 2y , deci

( 2)k k y2
k =
y e dy.

Daca integram prin parti obtinem

( 2)k
1 y2 k1 + k 1 k2 y2
k =
e y
y e dy
+
2
2

(k 1)( 2)k k2 y2

=
y e dy = (k 1) 2 k2 ,
2

deoarece prima expresie se anuleaza la limita. Deducem din relatia de recurenta precedenta
2k+1 = 0
.
2k
= (k 1)!! 2k
In particular, pentru k = 2, obtinem D2 [X] = 2 . Regasim, si n cazul variabilelor
aleatoare continue, inegalitatea lui Cebasev, cu ajutorul careia putem aprecia gradul de
mprastiere a valorilor variabilei; inegalitatea va constitui un important instrument de
lucru n cazul Legii numerelor mari (Capitolul 4).
Propozitia 3.4.3 (Inegalitatea lui Cebasev) Daca variabila aleatoare X este continu
a cu
media m si dispersia 2 , atunci are loc
P ({|X m| < })
sau echivalent
P ({|X m|

}) <

, > 0,

(3.40)

> 0.

Demonstratie. Dispersia este data de


2 =

(x m)2 f (x)dx =

(x m)2 f (x)dx+

m+

(x m)2 f (x)dx +
(x m)2 f (x)dx.

m+

Din faptul ca x (m , m + ), rezulta (x m)2

f (x)dx +

si dispersia poate fi minorata prin

f (x)dx
m+

Variabile aleatoare continue


2

115
m+

f (x)dx ,
m

deoarece

f (x)dx = 1. Ultima paranteza se poate scrie


2

(1 P ({|X m| < })),

care este echivalenta cu relatia (3.40).

Exemplul 3.4.4 Timpul mediu de raspuns al unui calculator este de 15 secunde pentru
o anumita operatie, cu abaterea medie patratica 3 secunde. Estimati probabilitatea ca
timpul de raspuns sa se abata cu mai putin de 5 secunde fata de medie. Vom folosi
inegalitatea lui Cebasev. Avem
P ({|X 15|

9
= 0, 36.
25

5})

Reamintim ca momentul absolut de ordin k pentru o variabila aleatoare se defineste prin


formula k = M [|X|k ]. Daca X are densitatea de probabilitate f , atunci momentul
absolut este dat de formula

|x|k fX (x)dx.

k =

Observam ca existenta momentelor absolute de ordin k, antreneaza existenta momentelor


initiale de ordin k, deoarece

xk f (x)dx

|x|k f (x) < ,

iar din presupunerea facuta, a doua integrala este convergenta. De asemenea, daca exista
moment absolut de ordin k, exista momente absolute de orice ordin l k. Intr-adevar,

|x|l f (x)dx =

|x|l f (x)dx +

|x| 1

|x|l f (x)dx
|x|>1

|x|l f (x)dx +

|x| 1

|x|k f (x)dx.
|x|>1

Prima integrala este finita datorita domeniului de integrare, iar a doua din presupunerea
facuta.
Inegalitatea lui Cebasev poate fi generalizata pentru momente absolute de orice ordin
k IN , n sensul urmator: daca variabila aleatoare X are moment absolut de ordin k,
atunci
M [|X m|k ]
, > 0,
(3.41)
P ({|X m| < }) 1
k
sau echivalent
P ({|X m|

}) <

M [|X m|k ]
k

116

Variabile aleatoare continue

Propozitia 3.4.4 (Inegalitatea lui Schwarz) Daca variabilele aleatoare X si Y au momente absolute de ordin 2, atunci XY are moment absolut de ordin 2 si
2 (XY )

2 (x)2 (y).

(3.42)

Demonstratie. Pentru orice IR, inegalitatea M [(|X| + |Y |)2 ]


Efectuand calculele avem
M [(X + Y )2 ] = 2 M [X 2 ] + 2M [|XY |] + M [Y 2 ]

0 este evidenta.
0,

si folosind semnul functiei de gradul al doilea, inegalitatea precedenta este adevarata daca
discriminantul 0, ceea ce revine la
M [|XY |2 ]

M [X 2 ]M [Y 2 ].

De unde, dupa extragerea radicalului gasim (3.42).


Obseram ca, n aceleasi ipoteze, rezulta si
|M [XY ]|

M [X 2 ]M [Y 2 ].

Definitia 3.4.3 Fie X si Y dou


a variabile aleatoare pentru care exista momentele absolute de ordinul al doilea. Numarul definit de
Cov[X, Y ] = M [(X M [X])(Y M [Y ])]
se numeste covarianta variabilelor X si Y , iar numarul dat de formula
[X, Y ] =

Cov[X, Y ]
,
D[X]D[Y ]

(3.43)

dac
a D[X] = 0, D[Y ] = 0, se numeste coeficient de corelatie. Variabilele aleatoare X si
Y se numesc necorelate dac
a
M [XY ] = M [X]M [Y ].

Observam ca daca X si Y sunt independente, din Propozitia 3.4.2 rezulta ca sunt necorelate. Se pot da exemple care sa ilustreze ca reciproca afirmatiei precedente nu este
adevarata, adica pot exista variabile aleatoare necorelate fara ca ele sa fie independente.
Daca X si Y sunt variabile aleatoare continue care admit momente absolute de ordinul al
doilea, dispersia sumei se calculeaza dupa formula
D2 (X + Y ) = D2 (X) + D2 (Y ) + 2Cov[X, Y ].
Aceasta formula se generalizeaza usor n cazul a n variabile. Din formula (3.43) rezulta
imediat ca
[X, X] = 1,
iar
[X, Y ] = 0 daca si numai daca X si Y sunt necorelate.

Variabile aleatoare continue

117

Propozitia 3.4.5 Pentru oricare doua variabile X si Y , care admit coeficient de corelatie, este satisfacut
a inegalitatea
|[X, Y ]| 1.
(3.44)
Demonstratie. Consideram variabilele aleatoare X =
inegalitatea lui Schwarz. Rezulta

XM [X]
,Y
D[X]

Y M [Y ]
D[Y ]

si le aplicam

M [X 2 ]M [Y 2 ].

|M [X Y ]|
Ramane sa observam ca
[X, Y ] = M [X , Y ] =
si ca M [X 2 ] =

D2 [X]
D2 [X]

M [(X M (X))(Y M (Y ))]


D[X]D[Y ]

= 1. Dupa efectuarea nlocuirilor, se obtine formula(3.44).

Propozitia 3.4.6 Pentru oricare doua variabile aleatoare, ce admit coeficient de corelatie, urmatoarele afirmatii sunt echivalente:
1. |[X, Y ]| = 1;
2. exista a, b IR, nesimultan nule si c IR , astfel nc
at relatia aX + bY + c = 0 are
loc aproape sigur (adica P ({aX + bY + c = 0}) = 1).
Vom schita demonstratia. Intr-un sens afirmatia este imediata; anume daca are loc
aX +bY +c = 0 aproape sigur si presupunem b = 0, gasim m, n IR astfel ca Y = mX +n.
Observam imediat ca
1, daca m > 0
[X, Y ] =
1, daca m < 0.
Reciproc, daca X =

XM [X]
,Y
D[X]

Y M [Y ]
,
D[Y ]
2

atunci sunt evidente urmatoarele relatii

[X, Y ] = M [X Y ] = 1 si M [(X Y ) ] = 0. Intr-un cadru mai general decat cel prezentat n acest curs (vezi [22]), se poate arata ca din ultima egalitate rezulta ca X Y = 0
aproape sigur, deci:
X M [X]
Y M [Y ]
=
.
D[X]
D[Y ]
Schimband eventual notatiile, din ultima egalitate deducem 2.
Notiunea de moment poate fi extinsa la variabile aleatoare multidimensionale.
Definitia 3.4.4 Daca (X1 , . . . , Xn ) este o variabila aleatoare n-dimensionala cu densitatea de probabilitate fX1 ...Xn , numim moment initial de ordinul (k1 . . . kn ) numarul
k1 ...kn = M [X1k1 , . . . , Xnkn ] =

...
IRn

xk11 . . . , xknn fX1 ...Xn (x1 , . . . xn )dx1 . . . dxn .

Definitia 3.4.5 Daca X si Y sunt doua variabile aleatoare n-dimensionale, matricea de


elemente
Cov[Xi Yj ], i = 1, . . . n, j = 1, . . . n.
se numeste matricea de covarianta.

118

Variabile aleatoare continue

Medii conditionate.
Daca X este o variabila aleatoare cu densitatea de probabilitate f si A K, definim
media lui X conditionata de A
+

M [x|A] =

xf (x|A)dx

(3.45)

unde f (x|A) este densitatea de probabilitate a lui X conditionata de A.


Exemplul 3.4.5 Fie T variabila aleatoare care da timpul de functionare pana la prima
defectare. Sa determinam media lui T , conditionata de faptul ca sistemul a functionat
pana la momentul t. Folosind un rationament asemanator cu cel pentru deducerea formulei
(3.15), deducem
f (x|{T

f (x)

t}) =

+
t

f (x)dx

, x

t.

Atunci cu ajutorul relatiei (3.45), obtinem


M [T |{T

+
xf (x)dx
t
.
+
f (x)dx
t

t}] =

Daca X si Y sunt doua variabile aleatoare cu densitatile de probabilitate fX , fY definim


mediile conditionate prin formulele
+

M [Y |x] =

yfY (y|x)dy

M [X|y] =

xfX (x|y)dx,

daca exista. Se poate arata ca mediile conditionate sunt de fapt variabile aleatoare, care
admit la randul lor medie, ce se exprima prin formulele integrale ale mediei totale.
+

M [Y ] =

M [Y |x]fX (x)dx

M [X] =

M [X|y]fY (y)dy.

Sa deducem prima egalitate.


+

M [Y |x]fX (x)dx =

fX (x)dx

yfY (y|x)dy =

ydy

fY (y|x)fX (x)dx.

Daca folosim (3.32) si densitatea de probabilitate marginala, deducem ca ultima formula


reprezinta chiar M [Y ].

Variabile aleatoare continue

119

Exemplul 3.4.6 Numarul de clienti care ajunge la o statie de deservire ntr-un


interval de timp t este o variabila aleatoare Poisson cu parametrul t. Timpul necesar
deservirii fiecaruia este o variabila exponentiala, T , cu parametrul , deci are densitatea
de probabilitate
et ,
0,

f (t) =

daca t 0
daca t < 0

( > 0).

Sa determinam repartitia variabilei N , care da numarul de clienti ce ajung n timpul T al


deservirii unui client, media si dispersia, n ipoteza ca sosirile clientilor sunt independente
de timpul de deservire. Aplicam formula probabilitatii totale
+

P ({N = k}) =

P ({N = k}|{T = t})fT (t)dt =

k
k!

(t)k t t
e e dt =
k!

tk e(+)t dt.

Facand schimbarea de variabile r = ( + )t sirul de egalitati poate fi continuat,


k
k!( + )k+1

rk er dr =

=
( + )k+1
+

Deci N este o variabila aleatoare geometrica. Daca se produce {T = t}, variabila


conditionata este Poisson, cu paramertul t. Rezulta ca media si dispersia au aceeasi
valoare si anume t. Pentru calculul mediei lui N putem folosi formula mediei totale
+

M [N ] =

M [N |t]fT (t)dt =
0

M [N 2 ] =
0

tfT (t)dt = M [T ].
0

M [N 2 |t]fT (t)dt =

(t + 2 t2 )fT (t)dt = M [T ] + 2 M [T 2 ].

Sa mai observam ca T fiind variabila exponentiala M [T ] =


2
M [N ] = D2 [N ] = 2 + .

3.5

1
,

D2 [T ] =

1
.
2

Deci

Functia caracteristic
a a unei variabile aleatoare

In acest capitol am vazut ca densitatea de probabilitate a sumei de variabile aleatoare


independente este produsul de convolutie al densitatilor de probabilitate, dar analitic este
uneori dificil de aplicat acest rezultat. Un instrument mai comod este functia caracteristica, pe care o vom utiliza si la determinarea momentelor unei variabile aleatoare.
Fie X o variabila aleatoare continua avand densitatea de probabilitate fX .

120

Variabile aleatoare continue

Definitia 3.5.1 Numim functie caracteristica asociat


a variabilei aleatoare X, functia
: IR C, definita prin
(t) = M [eitX ] =

eitx fX (x)dx.

Tinand cont ca eiy = cos y + i sin y cu y IR , eitX reprezinta o variabila aleatoare


bidimensionala cu componentele (cos tX, sin tX). Deoarece |eitx | = 1, functia caracteristica exista pentru orice variabila aleatoare ce admite densitate de probabilitate. Vom
mai nota X (t), pentru a pune n evidenta carei variabile aleatoare i se asociaza functia
caracteristica. Definitia functiei caracteristice reprezinta transformata Fourier aplicata
functiei absolut integrabile fX ; o formula de inversare va fi formulata n prezenta conditiei
suplimentare de absoluta integrabilitate a functiei caracteristice, n Teorema 5.3 din acest
capitol.
Propozitia 3.5.1 Urm
atoarele afirmatii sunt adevarate :
1. (0) = 1;
2. |(t)| 1;
3. (t) = (t);
4. (t) este uniform continu
a pe IR.
Demonstratie.
1. si 2. sunt evidente.
3. Sa calculam

(t) =

eitx (x)dx =

eitx f (x)dx = (t).

eitx f (x)dx =

4. Pentru a arata ca este uniform continua, sa calculam:

|(t + h) (t)| =

eitx (eihx 1)f (x)dx

Deoarece

|eihx 1|f (x)dx.

f (x)dx = 1, pentru orice

>

> 0, exista A suficient de mare astfel ncat


f (x)dx < /4,

|x| A

iar din continuitatea exponentialei exista h suficient de mic ncat |eihx 1| < /2. Atunci
putem scrie
A

|(t + h) (t)|
A

|eihx 1|f (x)dx +

>

f (x)dx < .

|x| A

Observatie. Urmatoarele afirmatii sunt echivalente : o functie caracteristica este


reala; f (x) = f (x); F (x) = 1 F (x), unde F si f sunt functiile de repartitie,
respectiv de densitate de probabilitate. Egalitatile dintre functiile precedente au loc n

Variabile aleatoare continue

121

cazul cel mai general cu exceptia unei multimi de probabilitate nula (deci aproape sigur).
Demonstram afirmatia n cazul n care f este continua. Aratam, mai ntai, ca ultimele
doua afirmatii sunt echivalente. Avem
F (x) = (1 F (x)) f (x) = f (x).
Reciproc, daca f (x) = f (x)
x

F (x) = f (t)dt = 1 x f (t)dt = 1 +


x
= 1 f (u)du = 1 F (x).

f (u)du =

In ce priveste echivalenta primelor doua relatii se observa imediat ca

f (x) = f (x) = (t) =

eitx f (x)dx =

eitx f (x)dx = (t) = (t).

Se poate arata, n prezenta unor rezultate suplimentare si care nu sunt cuprinse n acest
curs, ca din faptul ca este reala, rezulta f (x) = f (x).
Propozitia 3.5.2 1. Daca Y = aX + b, cu a, b IR, atunci Y (t) = eitb X (at);
2. Daca X si Y sunt independente, atunci X+Y = X Y .
Demonstratie.
1. Y (t) = M [eity ] = M eit(aX+b) = eitb M eitaX = eitb X (at).
2. X+Y (t) = M eit(X+Y ) = M eitX eitY = X (t)Y (t).
Cunoasterea functiei caracteristice permite calculul momentelor initiale, dupa cum
rezulta din urmatoarea teorema.
Teorema 3.5.1 Daca o variabila aleatoare admite moment absolut de ordin n, n IN ,
atunci functia caracteristic
a este de n ori derivabila si are loc :
k =

(k) (0)
, k = 1, . . . n.
ik

Demonstratie. Derivam formal de k ori sub integrala cu parametru din definitia functiei
caracteristice. Gasim dupa majorari
(k) (t) = ik

xk eitx f (x)dx,

iar

xk eitx f (x)dx

n , k = 1, . . . n,

deci derivatele exista. Daca n formula de derivare luam t = 0, gasim


(k) (0) = ik k .

122

Variabile aleatoare continue

Teorema 3.5.2 Daca X este o variabila aleatoare continu


a care admite momente absolute de orice ordin, atunci functia caracteristic
a admite dezvoltare n serie de puteri de
forma

(it)k
(t) =
k .
k!
k=0
Demonstratie. Inlocuim n definitia functiei caracteristice dezvoltatea n serie a exponentialei si gasim

(t) =

eitx (x)dx =

1+

itx
(itx)n1 (itx)n ix
+ ... +
+
e
f (x)dx =
1!
(n 1)!
n!

= 0 +

it
(it)n1
1 + . . . +
n1 + Rn .
1!
(n 1)!

Majorand restul obtinem


|Rn | =

(it)n
n!

|t|n
n!

xn eit f (x)dx

|x|n f (x)dx < .

Se observa ca lim Rn = 0, deci afirmatia este adevarata.


n

Teorema 3.5.3 (Formula de inversiune) Fie X o variabila aleatoare avand si F , respectiv, functia caracteristic
a si functia de repartitie. Daca x1 , x2 , cu x1 < x2 sunt puncte
de continuitate ale lui F , atunci are loc
1
c 2

F (x2 ) F (x1 ) = lim

eitx1 eitx2
(t)dt.
it

(3.46)

Demonstratie. Observam ca pentru c IR, functia de sub integrala este continua, daca o
definim n t = 0 prin
eitx1 eitx2
lim
= (x2 x1 )(0).
t0
it
De asemenea, functia are un majorant integrabil, deci integrala
Ic =

1
2

eitx1 eitx2
(t)dt
it

este convergenta. Consideram cazul particular n care X are densitate de probabilitate f


si nlocuim n integrala precedenta pe
1
Ic =
2

eitx1 eitx2 itz


e f (z)dzdt.
it

Prin schimbarea ordinii de integrare (posibila deoarece n raport cu z avem absoluta


convergenta, iar n raport cu t integrarea se face pe interval finit), gasim
1
Ic =
2

eit(zx1 ) eit(zx2 )
dt f (z)dz =
it

Variabile aleatoare continue


1
=
2

123

eit(zx1 ) eit(zx2 )
dt +
it

c
0

eit(zx1 ) eit(zx2 )
dt f (z)dz.
it

In prima integrala facand schimbarea t t, obtinem


Ic =

1
2

eit(zx1 ) + eit(zx2 ) + eit(zx1 ) eit(zx2 )


dt f (z)dz =
it

sin t(z x) sin t(z x2

t
t

dtf (z)dz

Alegem un > 0 astfel ncat x1 + < x2 si descompunem integrala pe domeniile :


(, x1 ), (x1 , x1 + ), (x1 + , x2 ), (x2 , x2 + ), (x2 + , ).
Reamintim formula lui Dirichlet [10] :
1
lim
c

c
0

sin t
dt =
t

1/2,
1/2,

daca > 0
daca < 0

unde limita este uniforma n raport cu . Pe intervalul (, x1 ), avem z x2 <


z x1 < < 0, deci
c

sin t(z x1 ) sin t(z x2 )

t
t

dt 0, daca c

si cum integrala este uniform marginita n raport cu c, putem comuta integrala cu limita
si obtinem
x1

sin t(z x1 ) sin t(z x2 )

t
t

dtf (z)dz 0, daca c

(3.47)

dtf (z)dz 0, pentru c .

(3.48)

si analog

x2 +

c
0

sin t(z x1 ) sin t(z x2 )

t
t

Pe intervalul (x1 + , x2 ) folosind formula lui Dirichlet si convergenta uniforma n


raport cu , deducem
x2

lim

c
x2

=
x1 +

x1 +

c
0

sin t(z x1 ) sin t(z x2 )

t
t

sin t(z x1 ) sin t(z x2 )

t
t

dtf (z)dz =

dtf (z)dz = F (x2 ) F (x1 + ).

(3.49)

Pe intervalele (x1 , x1 + ) si (x2 , x2 + ), integralele pot fi majorate respectiv, daca


folosim din nou formula lui Dirichlet, cu
2(F (x1 + ) F (x1 )),
2(F (x2 + ) F (x2 )).

(3.50)

124

Variabile aleatoare continue

Pentru orice > 0, din (3.47) si (3.48) exista c astfel ncat c > c are loc
1

sin t(z x1 ) sin t(z x2 )

t
t

f (z)dz

/3 + /3 + F (x2 ) F (x1 + )/3 + 2(F (x1 + )


F (x1 ) + F (x2 + ) F (x2 )).
In inegalitatea de mai sus au intervenit si relatiile (3.49) si (3.50). Deoarece x1 si x2 sunt
puncte de continuitate pentru F
lim(F (x1 + ) F (x1 )) = lim(F (x2 + ) F (x2 )) = 0.

Trecand apoi la limita pentru c , gasim formula (3.46 ).


Aceasta teorema ne permite sa stabilim o corespondenta biunivoca ntre functiile de
repartitie si cele caracteristice, dupa cum rezulta din urmatoarea teorema.
Teorema 3.5.4 (Teorema de unicitate) Functia de repartitie este unic determinata de
functia sa caracteristic
a.
Demonstratie. In teorema precedenta facem pe x1 sa tinda la , x1 ramanand punct de
continuitate. Deoarece lim F (x1 ) = 0, gasim
x1

F (x2 ) = lim

lim

x1 c

eitx1 eitx2
(t)dt
it

x1 , x2 puncte de continuitate ale lui F .


Teorema 3.5.5 Daca functia caracteristic
a este absolut integrabil
a pe IR, adica

|(t)|dt < ,

atunci F are derivata simetrica pe IR, deci x IR , exista


F (x + h) F (x h)
= Fs (x),
h0
2h
lim

si
Fs (x) = f (x)
n orice punct de continuitate a lui f .
Demonstratie. Pentru orice doua puncte de continuitate ale lui F , are loc din formula de
inversiune
itx1
e
eitx2
1
(t)dt,
F (x2 ) F (x1 ) =
2
it

Variabile aleatoare continue

125

deoarece folosind ipoteza, functia din membrul al doilea este integrabila. Presupunand ca
x1 = x h, x2 = x + h, atunci :

1
F (x + h) F (x h) = 2h
2
Deoarece

sin th
th

avem
eitx

sin th
(t)
th

si
lim eitx

h0

sin th itx
e (t)dt.
th

1,

|(t)|, h IR,

sin th
= eitx .
th

Intr-un cadru mult mai general decat cel prezent, se poate demonstra un criteriu de
convergenta dominata a lui Lebesgue [22], n baza caruia putem trece la limita sub integrala si gasim
F (x + h) F (x h)
1
=
h0
2h
2

Fs = lim

eitx (t)dt.

(3.51)

Sa demonstram ca Fs este continua; ntr-adevar


|Fs (x + h) Fs (x)|
=

|t| A

sin

1
2

2 sin

1
th
|(t)|dt +
2

th
|(t)|dt =
2
sin

|t|>A

th
|(t)|dt.
2

Pentru > 0 putem alege A suficient de mare ncat


1

|(t)dt < /2.


|t|>A

Prima integrala poate fi facuta < /2, daca alegem h suficient de mic, deci
|Fs (x + h) Fs (x)| < ,
de unde rezulta continuitatea. Reamintim ca n orice punct de continuitate pentru f ,
are loc F (x) = f (x), de unde afirmatia teoremei, deoarece derivata simetrica coincide cu
derivata.
Relatia (3.51) constituie formula de inversare, care exprima densitatea de probabilitate
cu ajutorul functiei caracteristice. Vom demonstra n continuare teorema lui Bochner,
care da o descriere completa a functiilor caracteristice, acest rezultat fiindu-ne necesar la
studiul proceselor stochastice stationare.

126

Variabile aleatoare continue

Definitia 3.5.2 Functia : IR IR, continu


a, se numeste pozitiv definita pe IR, daca
t1 , . . . , tn IR si z1 , . . . , zn C, n IN , are loc
n

(tj tk )zj zk

0.

k=1 j=1

Cateva proprietati decurg imediat din definitie.


1. (0) 0.
Intr-adevar pentru n = 1, t1 = 0, z1 = 1, afirmatia este evidenta.
2. (t) = (t), t IR.
Aceasta rezulta daca luam n = 2, t1 = 0, t2 = t, z1 , z2 C.
2

(tk tj )zk zj = (0 0)z1 z1 + (0 t)z1 z2 + (t 0)z2 z1 + (t t)z2 z2 =


k=1 j=1

= (0)(|z1 |2 + |z2 |2 ) + (t)z1 z2 + (t)z1 z2 ,


si deci (t)z1 z2 + (t)z1 z2 IR. Daca luam
(t) = 1 + i1 ,
,
z1 z2 = + i

(t) = 2 + i2 ,
z1 z2 = i,

rezulta 1 + 1 2 + 2 = 0, , , deci obtinem 1 = 2 si 1 + 2 = 0.


3. |(t)| (0).
In inegalitatea de la punctul precedent, fie z1 = (t), z2 = |(t)|, atunci deducem
2(0)|(t)|2 |(t)|2 |(t)| |(t)|2 |(t)|
De unde, daca |(t)| = 0 rezulta (0)
deducem din nou afirmatia.

0,

|(t)|, iar daca |(t)| = 0, din prima proprietate

Teorema 3.5.6 (Bochner-Hincin) O functie (t) continu


a, cu conditia
(0) = 1 este o functie caracteristica, daca si numai daca este pozitiv definita.
Demonstratie. Daca este functie caracteristica pentru o variabila aleatoare cu densitatea
de probabilitate f , are loc

(t) =

eitx f (x)dx.

Sa demonstram ca este pozitiv definita. Avem


n

(tj tk )zj zk =
k=1 j=1

k=1 j=1

=
k=1 j=1

eix(tk tj ) f (x)zk zj dx =

eix(tk tj ) f (x)dxzk zj

eitk x zk
k=1

eitj x zj
j=1

f (x)dx =

Variabile aleatoare continue

127
2

itk x

zk f (x)dx

0.

k=1

Reciproc. Pentru Z > 0, consideram functia


pZ (x) =

1
2Z

(u v)eiux eivx dudv.

Daca scriem integrala dubla ca limita a sumelor Riemann corespunzatoare si folosim


pozitiva definire a lui , rezulta ca pZ
0. Facem n integrala dubla schimbarea de
variabile
t=uv
z=u
cu inversa

u=z
v = z t.

Domeniul [0, Z] [0, Z] din Figura 3.12 este dus n domeniul reprezentat n figura 3.13.
Se obtine imediat
Z
1
|t|
pZ (x) =
1
(t)eitx dt.
2 Z
Z
Sa demonstram ca pZ (x) este integrabila pe R. Vom reface n acest scop o demonstratie
datorata lui Yu Linnik, pe acest caz particular. Notam
x

G(x) =

pZ (z)dz
x

si nlocuim pZ , dupa care schimbam ordinea de integrare. Obtinem


G(x) =

1
2

1
x

|t|
Z

(t)eitz dtdz.

Introducand functia
1
0,

p(t) =
deducem
G(x) =

1
2

p(t)
Z

|t|
Z

(t),

eitx dzdt =

|t| Z
,
|t| > Z
1

p(t)
Z

sin tx
dt.
t

Datorita faptului ca pZ 0, rezulta ca G este nedescrescatoare. Pentru asigurarea integrabilitatii este suficient sa aratam ca G este marginita. Introducem functia auxiliara
1
G1 (u) =
u

2u

G(x)dx
u

si observam ca
G1 (u)

G(u)
u

2u

dx = G(u).
u

128

Variabile aleatoare continue

Deoarece G1 majoreaza G, pentru marginirea lui G este suficient sa aratam marginirea


lui G1 . Sa calculam
2u

1
G1 (u) =
u

2
u

sin tx
1
p(t)
dtdx =
t
u
Z

1
u

=
=

p(t)
Z

cos tx
t2

2u
u dt

1
p(t) 2 (cos ut cos2ut)dt =
t
Z

p(t)
Z

2
(sin ut)2
dt
2
t
u

p(t)
Z

(sin ut
)2
2
dt.
t2

Fie M = sup |p(t)|. Atunci


Z

2
u
iar

p(t)
Z

2
u

2M

(sin ut
)2
2
dt
t2

p(t)
Z

(sin ut)2
dt
t2

(sin ut)2
udt,
u2 t 2
(sin v)2
dv.
v2

Integralele din membrul al doilea sunt convergente. Deci marginirea este asigurata. Se
constata ca

1
p(t)eitx dt
pZ (x) =
2
1
adica 2
pZ este transformata Fourier a functiei p. Folosind formula de inversiune pentru
functia p continua (vezi [10]), rezulta ca

1
2

In particular, pentru t = 0,

|t|
Z

(t) =

1
2

pZ (x)eitx dx, |t|

Z.

pZ (x)dx = (0) = 1,

iar functia pZ fiind continua si integrabila pe IR, constituie o densitate de probabilitate


pentru o variabila aleatoare, care are functia caracteristica asociata p. Observam ca
pentru Z , functia p(t) converge uniform la , pe fiecare interval marginit. De aici,
folosind convergenta n repartitie Capitolul 4, rezulta ca este o functie caracteristica.

3.6

Variabile aleatoare continue clasice si leg


aturile
dintre ele

Vom enumera principalele repartitii continue si vom studia proprietatile lor. Un


instrument important pentru aceasta este functia caracteristica, ce a fost studiata anterior.
Pentru nceput vom calcula functia caracteristica a repartitiei normale N (m, 2 ), data de
(3.11).

Variabile aleatoare continue

129

Propozitia 3.6.1 Functia caracteristic


a a repartitiei normale este
(t) = eimt

t2 2
2 .

(3.52)

.
Demonstratie. Reamintim ca densitatea de probabilitate a repartitiei normale este
f (x) =

(xm)2
1
e 22
2

pe care onlocuim n expresia functiei caracteristice. Facem schimbarea de variabila


x m = 2y si obtinem
(t) =

1
2

(xm)2
1
eitx e 22 dx =

t2 2

eitm 2

eitmy

2 +ity

dy =

t2 2
2 .

t 2
e(y 2 i) dy = eimt

In particular, daca X este o variabila repartizata N (0, 1), functia sa caracteristica este
t2

(t) = e 2 .
Folosind Propozitia 3.5.2 determinam comod repartitia sumei de variabile aleatoare normale.
Teorema 3.6.1 Daca Xk : N (mk , k2 ), k = 1, . . . n, sunt variabile aleatoare independente,
n

atunci variabila aleatoare X1 + . . . + Xn este repartizat


a N(

k2 ).

mk ,
k=1

k=1

Demonstratie. Functia caracteristica a sumei este produsul functiilor caracteristice


n

X1 +...+Xn (t) =

eimk t

t2 k2
2

k=1

t2

mk k=1
it

2
k=1
n

k2

=e
n

care corespunde n mod unic variabilei repartizate N (

k2 ).

mk ,
k=1

k=1

130

Variabile aleatoare continue

Propozitia 3.6.2 Dac


a Xk , k = 1, . . . n, sunt variabile aleatoare independente repartizate
2
normal N (m, ), atunci media lor aritmetica
1
n
este repartizat
a N (m,

Xk
k=1

2
).
n

Demonstratie. Din Teorema 3.6.1 suma este repartizata N (nm, n 2 ). Sa calculam functia
de repartitie a variabilei aleatoare notata
1
X=
n

Xk .
k=1

Avem

FX = P ({X < x}) = P ({

Xk < nx}).
k=1

Prin derivare gasim densitatea de probabilitate


2

(nxnm)2
(xm)
1
1
2

2
2n
fX (x) =
e
n= e 2n ,
2n
2 n

de unde afirmatia propozitiei.


Sa definim functia caracteristica n cazul multidimensional. Daca variabila aleatoare
n-dimensionala are densitatea de probabilitate fX1 ...Xn , atunci functia caracteristica este
n

t k xk

(t1 , . . . , tn ) =

...

f (x1 , . . . , xn )dx1 . . . dxn .

k=1

IRn

Relatia poate fi pusa sub forma


(t1 , . . . , tn ) =

eiT

...
IRn

tX

f (x1 , . . . , xn )dx1 . . . dxn ,

t1
x1

unde X = ... si T = ... . Sa determinam functia caracteristica pentru


tn
xn
variabila aleatoare normala n-dimensionala, mai ntai pentru cazul m1 = . . . = mn = 0.
Reamintim ca densitatea de probabilitate este data de (3.24)

det A 1 X t AX
2
f (x) =
.
n e
(2) 2

Variabile aleatoare continue

131

Daca nlocuim n expresia functiei caracteristice, obtinem

1 t
det A
t
...
eiT X 2 X AX dx1 . . . dxn .
(t1 , . . . , tn ) =
2
(2) n
IRn
Facem transformarea ortogonala X = HY , pentru care forma patratica de la exponent
are forma canonica j=1 lj yj2 , cu lj > 0 (aceste transformari au fost explicate n detaliu
la repartitia normala n-dimensionala n 3.3 ). Notam U = H 1 T = H t T . Atunci, se
observa ca
T t X = (HU )t HY = U t H t HY = U t Y.
Cu aceasta functia caracteristica devine
n

(t1 , . . . , tn ) =

det A

(2)

iU t Y

det A

(2)

2
n

j=1

2
n

lj yj2

12

IRn
n

j=1

dy1 . . . yn =

eiuj yj 2 j yj dyj .

|l |

j
reprezinta functia caracteristica pentru o variabila
Ultima integrala nmultita cu 2
1
aleatoare repartizata N (0, lj ), deci folosind (3.52), avem

(t1 , . . . , tn ) = e

12

u2
j
j=1 lj

Pn

Reamintim ca matricea formei patratice se modifica

l1 0 . . .
t

0 l2 . . .
H AH =
0 0 ...

dupa legea

0
0 ,
ln

unde lj > 0, sunt valorile proprii ale matricei A. Prin inversare gasim
1

0 ... 0
l1
H 1 A1 H = 0 l12 . . . 0 ,
0 0 . . . l1n
deci n ultima integrala recunoastem ca exponentul este urmatorul produs de matrice
n

j=1

u2j
= U t (H 1 A1 H)U =
lj

= T t H(H 1 A1 H)H 1 T = T t A1 T
(s-a folosit faptul ca U = H t T ). Gasim forma finala
1

(t1 , . . . , tn ) = e 2 T

t A1 T

132

Variabile aleatoare continue

Se demonstreaza ca daca vectorul M = 0, atunci printr-o schimbare de variabile, functia


caracteristica devine
1 t 1
t
(t1 , . . . , tn ) = eiT M 2 T A T .
Generalizand la cazul n-dimensional Teorema 3.5.1, se poate demonstra ca derivatele
partiale ale lui n raport cu ti genereaza momentele variabilelor aleatoare marginale.
Astfel
1
M [Xh ] =
(0, . . . , 0),
i th
1
M [Xh Xk ] = 2
i

2
th tk

(0, . . . , 0).

Sa determinam momentele variabilei aleatoare normale n-dimensionale, mai ntai n cazul


m1 = . . . = mn = 0.
1
M [Xh ] =
i

th

(0, . . . , 0) =

a1
hk tk

(0, . . . , 0) = 0,

k=1

M [Xh Xk ] =

1
i2

th tk

(0, . . . , 0) =

ie

12 T t A1 T

2 21 T t A1 T

1 2 T
a1
hk tk + ahk e

a1
hk th

ie

t A1 T

(0, . . . , 0) = a1
hk .

k=1

h=1

Daca (m1 , . . . , mn ) = (0, . . . , 0),


1
M [Xh ] =
i

th

(0, . . . , 0) =

a1
hk tk

mh + i

M [Xh Xk ] =

1
i2

2
th tk

a1
hk tk ) (t1 , . . . , tn )+

a1
hk tk )(mk + i

(mh + i
k=1

(0, . . . , 0) =

(t1 , . . . , tn )(0, . . . , 0) = mh ,

k=1

h=1

1
+a1
hk (t1 , . . . , tn )(0, . . . , 0) = mh mk + ahk .

Se obtin imediat egalitatile


M [(Xh mh )] = 0,
M [(Xh mh )2 ] = M [(Xh2 )] m2h = a1
hh ,
Cov[Xh , Xk ] = M [(Xh mh )(Xk mk )] = M [Xh Xk ] mh mk = a1
hk .
Deci A1 este matricea de covarianta a variabilei normale n-dimensionale. Pe baza acestei
observatii n cazul 2-dimensional, repartitia normala poate fi scrisa sub o forma mai
comoda. Notam:
M [X1 ] = m1 ,
M [X2 ] = m2
D2 (X2 ) = 22
D2 (X1 ) = 12 ,

Variabile aleatoare continue

133

Cov[X1 , X2 ] = 1 2
si gasim

12
1 2
1 2 22 ,

A1 =
de unde, prin inversare, gasim
A=

22
1 2
1 2 12

1
(1 2 )12 22

De aceea densitatea de probabilitate se poate scrie:


f (x1 , x2 ) =

1
21 2

1 2

(x1 m1 )2
12

1
2(1
2)

2(x1 m1 )(x2 m2 )
1 2

(x2 m2 )2
22

(3.53)

Exemplul 3.6.1 Variabila aleatoare (X, Y, Z) este normal repartizata si are matricea de
covarianta

1 0, 2 0, 3
0, 2 1 0, 4 .
0, 3 0, 4 1
Sa determinam densitatea de probabilitate a variabilei aleatoare marginale (X, Z). Observam pentru aceasta ca matricea de covarianta este
1 0, 3
0, 3 1

Deci mX = mZ = 0, = 0, 3, 1 = 2 = 1 si nlocuind n (3.53), obtinem densitatea de


probabilitate cautata.
Vom enunta un rezultat care stabileste legatura dintre convergenta functiilor caracteristice
si cele de repartitie, de mare utilitate practica. Demonstratia acestui rezultat se gaseste
de exemplu n [10] si este facuta ntr-un cadru mai general.
Teorema 3.6.2 Daca sirul de functii caracteristice n converge pentru orice t la (t) =
t2

e 2 , atunci sirul functiilor de repartitie corespunz


atoare Fn satisface:
lim Fn (x) =

Reamintim ca

1
2

1
2

u2
2

1
+ (x).
2

+ (x) este functia de repartitie a variabilei aleatoare normale normate.

Repartitia 2 (hi p
atrat). Functia f : IR IR, definita prin
f (x) =

n
1
1 2x2
2
x
e
, 0
n
2 n ( 2 )
n
2

x < , n IN , > 0

134

Variabile aleatoare continue

este o densitate de probabilitate. Prin substitutia y = 2x2 integrala 0 f (x)dx se reduce


n
la 2 2 n ( n2 ). Pentru functia si proprietatile ei, vezi Anexa 3. Aceasta repartitie a fost
descoperita de Helmert si pusa n valoare de Pearson. n se numeste num
ar de grade de
libertate. Vom nota X : H(n, ). Functia caracteristica este data de
n

(t) = (1 2 2 ti) 2 .

Intr-adevar, calculam integrala (t) =


(t) =

1
n
2 ( n2 )
n
2

1
= n n n
2 2 ( 2 )

f (x)eitx dx si obtinem
x

eitx 22 x 2 1 dx =

x 2 1 e 22 (12

2 ti)

dx.

In ultima integrala facem schimbarea x2 (1 2 2 ti) = y; atunci integrala precedenta


2
devine
n
n

2
n
2 2
2 2 n
n
1 y
2
y
e dy =
),
n (
2
2
1 2 ti
(1 2 ti) 2 2
0
de unde se obtine imediat afirmatia. Pentru calculul momentelor, vom deriva functia
caracteristica. Avem
n
(t) = in 2 (1 2 2 ti) 2 1 ,
n

(t) = i2 n(n + 2) 4 (1 2 2 ti) 2 2 ,


..
.
n

(k) (t) = ik n(n + 2) . . . (n + 2k 2) 2k (1 2 2 ti) 2 k .


Folosind apoi Teorema 3.5.1, gasim
1
1 = (0) = n 2 ,
i
2 =

1
(0) = n(n + 2) 4 ,
i2
..
.

1 (k)
(0) = n(n + 2) . . . (n + 2k 2) 2k .
ik
Urmatoarea teorema este un important instrument de lucru n statistica matematica.
k =

Teorema 3.6.3 Daca X1 , . . . , Xn sunt variabile aleatoare independente, repartizate


N (0, 2 ), atunci variabila aleatoare
n

Xk2
k=1

este repartizat
a H(n, ).

Variabile aleatoare continue

135

Demonstratie . Sa determinam pentru nceput functia caracteristica a variabilei aleatoare


Xk2 , k = 1 . . . n. Pentru aceasta sa-i determinam mai ntai densitatea de probabilitate.
Avem
FXk2 (x) =

P ({Xk2

< x}) = P ({ x < Xk <

Prin derivare, gasim


fXk2 (x) =

2
x}) =
2

1
x
e 22 , x
2 x

y2

e 22 dy, x

0.

0,

care se constata a fi o densitate de probabilitate pentru o variabila aleatoare H(1, ), deci


are functia caracteristica data de
1

k (t) = (1 2 2 ti) 2 .
Folosind acum faptul ca functia caracteristica a sumei este produsul functiilor caracteristice, obtinem
n

(t) =

(1 2 2 ti) 2 = (1 2 2 ti) 2 ,
k=1

care este functia caracteristica a unei variabile aleatoare H(n, ).


Folosind din nou functia caracteristica a sumei, se poate demonstra urmatoarea teorema.
Teorema 3.6.4 Daca Xi : H(ni , ), i = 1, 2, atunci
X1 + X2 : H(n1 + n2 , ).
In practica intereseaza determinarea unor probabilitati de forma P ({X
}), unde
X : H(n, 1), deoarece se verifica imediat ca daca X : H(n, ), atunci variabila aleatoare
X
: H(n, 1).
2
Exista tabele ntocmite pentru diferite valori ale lui si ale numarului de grade de libertate
n, care au ca rezultate ariile din Figura 3.14.
Cand numarul de grade de libertate este foarte mare, se foloseste comportarea la limita
a sirului de variabile aleatoare repartizate 2 .
Teorema 3.6.5 Daca X : H(n, ), atunci variabila aleatoare
X n 2

2n 2
este asimptotic normala N (0, 1), pentru n .

136

Variabile aleatoare continue

Demonstratie . Sirul functiilor caracteristice este


n
n
n
t
n (t) = eit 2 (1 2 2 i
) 2 = eit 2 (1
2 2

t2

2 n
it) 2 .
n

Calculam limita lui |n (t)| = (1+ 2tn ) 2 , pentru n si gasim e 2 . Functia n (t) poate
fi scrisa sub forma (cos t n2 i sin t n2 )(cos n2 n i sin n2 n )n , unde (cos n +i sin n )n =
1

2
it.
n

Pentru n suficient de mare,


n = arctan

2
t.
n

Deci argumentul numarului complex n (t) poate fi luat de forma

yn = t
Notand x =

2
,
n

n n
+ arctan t
2
2

2
.
n

avem de calculat
lim

x0

arctan tx tx
x2

t2

care este 0. Deci lim n (t) = e 2 .


n

Aceasta teorema permite ca la un numar mare de grade de libertate sa se foloseasca


tabelele functiei lui Laplace. In teoria selectiei, ne intereseaza sa determinam repartitia
dispersiei (privita ca variabila aleatoare) a unei selectii provenind dintr-o colectivitate guvernata de variabila aleatoare normala. In acest scop sunt necesare urmatoarele rezultate.
Teorema 3.6.6 Fie Xk , k = 1, . . . n, variabile aleatoare independente repartizate N(0,1),
iar
n

ajk Xk , ajk IR, j = 1, . . . s, s IN , s < n,

lj (X1 , . . . Xn ) =
k=1

variabile aleatoare independente de tip N (0, 1). Atunci variabila aleatoare


n

Xk2

Q=

lj2 , s < n,

k=1

j=1

este repartizat
a H(n s, 1).
Demonstratie. Variabilele aleatoare li si lj cu i = j, sunt independente, deci
n

M [li lj ] = M [li ]M [lj ] = M [

aik Xk ]M [
k=1

ajk Xk ] = 0,
k=1

Variabile aleatoare continue

137

deoarece media este aditiva si M [Xk ] = 0. Pe de alta parte


n

aik ajk Xk2

M [li lj ] = M [

ail ajm Xm Xl ] =

+
l,m=1

k=1
n

aik ajk M [Xk2 ] =

=
k=1

aik ajk ,
k=1
n

M [li2 ]

deoarece M [Xm Xl ] = M [Xm ]M [xl ] = 0. Analog,

a2ik = 1, i = 1, . . . , s.

=
k=1

Sistemul celor s vectori (a11 , . . . , an1 ), . . . , (as1 , . . . , asn ) este ortogonal si poate fi deci
completat la o baza ortonormata. Notam matricea corespunzatoare cu A = (aij ) i, j =
1, . . . , s, care este deci ortogonala si au loc prin urmare
n

a2jk

= 1,

aik ajk = 0, i, j = 1, . . . , n.

k=1

k=1

Introducem notatiile
n

ark xk , r = s + 1, . . . , n,

lr (x1 , . . . , xn ) =
k=1

si fie L matricea coloana cu componentele li , i = 1, . . . n. Atunci are loc


L = AX,
unde X este vectorul n-dimensional cu componentele xi . Un simplu calcul ne arata ca
n

lk2 (x1 , . . . , xn )

k=1

k=1

Deci

Xk2

Q=
k=1

Xk2 .

=
n

lj2 =
j=1

lk2 (x1 , . . . , xn ).
k=s+1

Mai observam ca variabila aleatoare n-dimensionala L obtinuta printr-o transformare


ortogonala asupra lui X, variabila aleatoare cu componentele Xi , i = 1 . . . n, independente, are componentele independente; rezulta ca variabilele ls+1 , . . . , ln sunt independente, repartizate N (0, 1). Afirmatia rezulta din Teorema 3.6.3.
Teorema 3.6.7 (Cochran) Daca Qi (x1 , . . . , xn ), i = 1, . . . s, sunt forme patratice respectiv de rangurile r1 , . . . , rs , si X1 , . . . , Xn sunt variabile aleatoare independente, repartizate
N (0, 1), astfel nc
at
s

Xj2 ,

Qi (X1 , . . . , Xn ) =
i=1

j=1

atunci conditia necesar


a si suficienta ca Qi s
a fie variabile aleatoare independente este ca
r1 + . . . + rs = n.

138

Variabile aleatoare continue

Demonstratie. Pentru nceput sa presupunem ca Qi sunt independente. Daca Qi este


o forma patratica de rang ri , atunci poate fi scrisa ca suma de ri patrate de variabile
aleatoare normale normate, deci din Teorema 3.6.3 fiecare Qi este repartizata H(ri , 1), iar
suma lor este repartizata H( si=1 ri , 1), deoarece din ipoteza Qi sunt independente. Pe
n

Xj2 : H(n, 1). Ramane sa observam ca functia de repartitie este unica,

de alta parte,
j=1
s

deci

rj = n.
j=1

Reciproc. Daca Qi (X1 , . . . , Xn ) sunt forme patratice si r1 + . . . rn = n exista o matrice


ortogonala A astfel ncat
s

lk2 ,

Qi (x1 , . . . , xn ) =

i=1

k=1

l1
..
unde L = . = AX. Fiecare forma patratica Qi este suma de ri patrate li , repartiln
zate N (0, 1) (obtinute printr-o transformare ortogonala de variabile normal repartizate),
deci Qi sunt repartizate H(ri , 1) . Se verifica usor ca sunt si independente.
Repartitia Student. Spunem ca variabila aleatoare X este repartizata Student cu
n grade de libertate, daca are densitatea de probabilitate
( n+1 )
f (x) = 2 n
n( 2 )

n+1
2

x2
1+
n

, x IR

Vom nota X : S(n). Sa verificam mai ntai ca f este o densitate de probabilitate. Observam ca din paritatea functiei

f (x)dx = 2

Facem schimbarea de variabila x =

x2
1+
n

In ultima integrala substitutia


12

dy = 12 t

(1 t)

23

y2
1+y 2

f (x)dx.
0

ny, dupa care gasim

n+1
2

dx =

(1 + y 2 )

n+1
2

dy.

= t, ne duce la functia Beta vezi Anexa 3. Intr-adevar,

dt, si

2( n+1
)
2
f (x)dx =
n
n
n( 2 )

(1 t)
0

n+1
2

3
1 1
t 2 (1 t) 2 dt =
2

( n+1
)
n
2
n B( , 1) = 1.
1
( 2 )( 2 ) 2

Variabile aleatoare continue

139

Momentele repartitiei Student. Functia f fiind para, media este 0, deci momentele
initiale coincid cu cele centrate, iar toate cele de ordin impar sunt nule.
n+1

)
( n+1
x2
2k
2
2k = 2k =
x f (x)dx =
x
1+
dx.
n
n( n2 )

Folosind substitutia x = ny, reducem, ca mai nainte, la o integrala Beta si obtinem

2k

nk (k + 12 )( n2 k)
n
2k =
, daca k > 0.
n
( 2 )
2

Folosind proprietatile functiei


n
n
n
n
( ) = ( 1) . . . ( k)( k),
2
2
2
2
1
1
1 1
(k + ) = (k ) . . . ( ),
2
2
2 2
Gasim
2k =

nk 1.3. . . . (2k + 1)
.
(n 2)(n 4) . . . (n 2k)

Un caz particular l constituie n = 1, cand regasim repartitia Cauchy. Urmatorul rezultat


de comportare la limita a unui sir de variabile aleatoare repartizate Student este utilizat
mult n statistica.
Teorema 3.6.8 Daca f este densitatea de probabilitate a variabilei aleatoare repartizate
Student, atunci
x2
1
lim f (x) = e 2 .
n
2
Demonstratie. Vom folosi formula lui Legendre (vezi [10]). Pentru orice a > 0 are loc

(a)(a + ) = 2a1 (2a).


2
2
Pentru a arata ca

( n+1
)
1
lim 2 n = ,
n
n( 2 )
2

vom analiza separat cazurile n par si n impar. Reamintim formula lui Wallis
22n (n!)4
.
n n((2n)!)2

= lim

Daca n = 2k, luam n formula lui Legendre a = k si obtinem

(k + 21 )
(2k)
(2k 1)!

=
=
2k(k)
22k+1 2 (k) 2k
22k1 2k((k 1)!)2

140

Variabile aleatoare continue

(2k)!k 2

.
22k1 2k(k!)2 2k

Din formula lui Wallis, ultimul sir are aceeasi comportare la limita cu sirul
2k 2
2 k

2k1
2
2k k2k
care, pentru k , tinde evident la 12 . Daca n = 2k + 1, folosind din nou formula lui
Wallis, obtinem
(k + 1)
k!22k1 (k 1)!

=
=
2k + 1(k + 12 )
(2k + 1)(2k)
22k1 2k(k!)2

1
, pentru k .
2
(2k + 1)(2k)!

Deci pentru un numar mare de grade de libertate, se utilizeaza tabelele legii normale.
Pentru repartitia Student exista tabele care determina, pentru n = 1, . . . 30, valorile
P ({|X| > }) = , adica ariile hasurate din figura 3.15. De asemenea exista tabele pentru
calculul functiei de repartitie
x

f (t)dt,

F (x) =

adica de determinare a ariilor din Figura 3.16, pentru x > 0. Pentru x < 0, se folosesc
aceleasi tabele, dar tinem seama de
x

F (x) =

f (t)dt =

f (t)dt =

f (t)dt = 1 F (x).
x

Teorema 3.6.9 Fie X si Y variabile aleatoare independente repartizate


N (0, 2 ) si H(n, ) respectiv; atunci variabila aleatoare
X
Y
n
este repartizat
a S(n).
Demonstratie. Variabila aleatoare bidimensionla (X, Y ) are densitatea
f (x, y) =
Facem schimbarea

1
2

n+1
2

n+1 ( n2 )

y 2 1 e

x2 +y
2 2

u(x, y) =

< x < , 0

sx

v(x, y) = y

y
n .

y < .

Variabile aleatoare continue

141

Atunci densitatea de probabilitate a variabilei (U, V ) devine


g(u, v) =

1
n2

n+1
2

n+1 ( n2 )

n1
2

2
( un +1)v
2 2

Densitatea marginala a lui U este

1
g(u, v)dv =
n+1

n
n2 2 n+1 ( )
2

n1
2
( u +1)v
n 2
v 2 e 2 dv =

n+1
n+1
)
(
)
1
2
= 2 n
n+1
n+1
n( )

n
2
2
2
n2 2 n+1 ( ) 1 + u
2
n

2 2
(

1+

u
n

n+1
2

u2
( + 1)v
aceasta datorita schimbarii de variabila n 2
= t.
2
Consecint
a. Daca variabilele aleatoare independente X1 , . . . , Xn+1 sunt repartizate
2
N (0, ), atunci variabila aleatoare
Xn+1
X12 + . . . + Xn2
n

: S(n).

Demonstratia este imediata, daca se foloseste faptul ca X12 + . . . + Xn2 este repartizata
H(n, ).
Teorema 3.6.10 Fie X1 , . . . , Xn variabile aleatoare independente repartizate
X 1 + . . . Xn
N (0, ) si X =
. Atunci variabila aleatoare
n
y=

n(n + 1)

X
n

(Xj X)2
j=1

este repartizat
a S(n 1).
Demonstratie. Alegem aij IR astfel ncat matricea

a11
. . . a1n
a21
. . . a2n

A = ...
a(n1)1 . . . a(n1)n
1
. . . 1n
n

142

Variabile aleatoare continue

sa fie ortogonala si consideram transformarea

y1
y2

.. = A
.

yn

x1
x2
..
.

xn

Dupa cum am vazut mai nainte, variabilele aleatoare Yj , j = 1, . . . n, sunt independente


si repartizate N (0, ). Avem de asemenea
Y12 + . . . + Yn2 = X12 + . . . + Xn2
si daca nmultim ultima linie a matricei A cu X
yn
X= .
n
Deci

Y12

+ ... +

2
Yn1

Xj2

(Xj X)2 .

nX =

j=1

j=1

Atunci variabila aleatoare cautata poate fi scrisa sub forma


Y =

n(n 1)

n
2

(Xj X)

Yn
Y12

j=1

2
+ . . . + Yn1
n1

iar din consecinta precedenta aceasta este repartizata S(n 1).


Se poate arata ca variabila aleatoare
Xn
X12 + . . . + Xn2
n
este de asemenea repartizata S(n 1).
Repartitia Snedecor. Are densitatea de probabilitate data de
f (x) =

n1
n2

n1
2

n1
2

n1 +n2
2

n2
2

n1
1
2

n1
1+ x
n2

n1 +n2
2

, 0

x < ,

unde n1 , n2 IN se numesc grade de libertate. Vom nota o variabila aleatoare repartizata


Snedecor prin S(n1 , n2 ). Prin schimbarea de variabila
n1
x
n2
n1 = y,
1+ x
n2

Variabile aleatoare continue

143

integrala f (x)dx este redusa la o integrala Beta si folosind proprietatile functiei Beta
(Anexa 3) deducem imediat ca functia de mai sus este o densitate de probabilitate. Momentele initiale ale repartitiei Snedecor se obtin prin calcul direct
k =

n1
n2

n1
2

n1 +n2
2

n1
2

n2
2

x x

n1
1
2

n1
1+ x
n2

n1 +n2
2

dx =

(k + n21 )( n22 k)
,
n21 n22
daca facem aceeasi schimbare de variabila ca mai sus.T
inand cont de proprietatile functiei
Gama, gasim
k
n1 (n1 + 2) . . . (n1 + 2k 2)
n2
n2
k =
, k< .
n1
(n2 2)(n2 4) . . . (n2 2k)
2
In particular gasim
n2
1 =
n2 2
=

2 =

n2
n1

n1 + 2
n22
n1 (n2 2)(n2 4)

(3.54)

n32
(n1 + 2)(n1 + 4
3 = 2
.
n1 (n2 2)(n2 4)(n2 6)
Teorema 3.6.11 Fie X1 , X2 doua variabile aleatoare independente, care sunt repartizate
S(n1 , n2 ). Atunci variabila aleatoare
n2 X1
: S(n1 , n2 ).
n1 X2
Demonstratie. Notam cu U variabila din enunt si determinam functia de repartitie
FU (x) = P ({U < x}) = P
iar prin derivare gasim

X1
n1
< x ,
X2
n2

n1
n1
fU ( x).
n2
n2
Mai departe vom folosi formula care da densitatea catului de variabile aleatoare (3.31)
z n2
xz
n1

1
1
1
e 2z 2
e 2 (xz) 2
zdz,
fU (x) = n + n
1
2
0
n1
n2

2 2
2
2
z(1 + x)
care prin substitutia
= t, devine
2
n1 + n2
n1
1

1
1
2t
2
2
t
2
fU (x) = n + n
x
e
dt =
1
2
1+x
1+x
0
n1
n2

2 2
2
2
fU (x) =

144

Variabile aleatoare continue

n1 + n2
n1 + n2
n1
1

2
2 .
=
(1 + x)
n1
n2 x 2

2
2
n1
Daca facem schimbarea de variabila x = y, se obtine densitatea de probabilitate Snen2
decor.

Consecint
a. Daca variabilele aleatoare independente Xj , j = 1, n1 , Yk , k = 1, n2 ,
sunt repartizate N (0, ), atunci variabile aleatoare
n2 X12 + . . . Xn21
n1 Y12 + . . . + Yn22
este repartizata S(n1 , n2 ). Daca variabila aleatoare X este repartizata S(n1 , n2 ), variabila
1
aleatoare ln X are densitatea de probabilitate
2
n1
2

n1
n2

f (x) = 2

n1 +n2
2

n1
2

n2
2

n1
1 + e2x
n2

en1 x

n1 +n2
2

(3.55)

O variabila aleatoare avand aceasta densitate se numeste Fisher.


Repartitia Gama. Se verifica imediat ca functia
f (x) =

1 x m1
e x
, x
(m)

0, m > 0,

este o densitate de probabilitate. Momentele initiale de ordin k sunt


1
k =
(m)

ex xm1+k dx =

(m + k)
= m(m + 1) . . . (m + k 1).
(m)

Momentele centrate, dupa particularizarea formulelor (3.39), sunt


2 = 2 12 = m(m + 1) m2 = m,
3 = 3 32 1 + 213 = 2m.
Functia caracteristica este data de
(t) = (1 it)m ,
care se obtine din
(t) =

1
(m)

eitx ex xm1 dx =

1
(m)

e(it1)x xm1 dx,

prin substitutia (it 1)x = y.


Folosind produsul functiilor caracteristice se deduce usor ca daca Xi este repartizata
Gama cu parametrul mi , i = 1, 2, atunci suma este repartizata Gama cu parametrul
m1 + m2 .

Variabile aleatoare continue

145

Exemplul 3.6.2 Repartitia Erlang Sa determinam repartitia sumei de n variabile aleatoare independente, repartizate exponential, cu parametrul . Functia caracteristica a
repartitiei exponentiale este

(t) =
.
it
Sumei de variabile exponentiale i corespunde functia caracteristica
n (t) =

it

iar aceasta corespunde variabilei aleatoare cu densitatea de probabilitate


f (x) =

ex (x)n1
, x > 0.
(n 1)!

Sa determinam functia de repartictie a variabilei Erlang.


F (x) =

n1
(n 1)!

y n1 ey dy.

Integram prin parti si avem


F (x) =

n1
(n 1)!

y n1 ey |x0 +

n1

k=0

(x)n1 x
n2
=
e
+
(n 1)!
(n 2)!
Repetnd integrarea prin parti, gasim
F (x) = 1

(n 1)y n2 ey dy
x

y n2 ey dy.

(x)k x
e .
k!

Recunoastem n suma precedenta primii n termeni ai unei repartitii Poisson. Legatura


dintre aceste doua repartitii va fi evidentiata la procese Poisson.
Repartitia Beta. Este definita prin densitatea de probabilitate
xm1 (1 x)n1
,
B(m, n)

f (x) =

1, m > 0, n > 0.

Momentele sunt date de


k =
In particular avem

m(m + 1) . . . (m + k 1)
.
(m + n)(m + n + 1) . . . (m + n + k 1)

m(m + 1)
m
, 2 =
,
m+n
(m + n)(m + n + 1)
mn
2 = 2 12 =
.
2
(m + n) (m + n + 1)

1 =

146

3.7

Variabile aleatoare continue

Fiabilitate

In sensul cel mai larg , fiabilitatea reprezinta proprietatea unui dispozitiv de a-si
ndeplini functia specifica n conditii de exploatare date. O analiza completa a fiabilitatii
ne pune n evidenta:
-fiabilitatea precalculata, care se evalueaza pornind de la conceptia dispozitivului si a
componentelor sale;
-fiabilitate tehnica (nominala) determinata n urma ncercarilor n conditii de fabrica;
-fiabilitate de exploatare, determinata de conditiile reale de exploatare, cu luarea n
considerare a actiunii complexe a tuturor factorilor ce influenteaza functionarea.
Fiabilitatea poate fi exprimata cantitativ prin parametrii de fiabilitate. Determinarea
lor se face n practica n urma prelucrarii statistice a datelor. Cel mai frecvent utilizata
este probabilitatea functionarii fara defectiune ntr-un interval de timp. Intervalul de timp
n care sistemul functioneaza fara defectiuni este o variabila aleatoare pe care o notam cu
T.
Definitia 3.7.1 Numim functie de fiabilitate sau reliabilitate functia R : IR+ [0, 1]
definit
a prin
R(t) = P ({T t}).
Observam ca 1 R(t) este functia de repartitie, care n sensul fiabilitatii masoara probabilitatea ca pana la momentul t sa apara o defectiune. Functia F (t) = 1 R(t) se mai
numeste functie de nesigurant
a. In stransa legatura cu proprietatile functiei F (t), putem
enunta pe cele ale lui R.
1. R(0) = 1;
2. lim R(t) = 0;
t

3. t1 < t2 = R(t1 ) R(t2 );


4. Daca f este densitatea de probabilitate pentru variabila T ,
f (t) = R (t).
In Figura 3.17 sunt reprezentate cele doua functii.
Observam ca la momentul initial functia de fiabilitate este maxima, iar nesiguranta
minima si daca t se produce fenomenul invers. Vom presupune ca se poate preciza o
functie, numita rat
a de defectare si notata r, cu proprietatea ca r(t)t este probabilitatea
ca n intervalul (t, t + t) sa apara o defectiune, daca pana la momentul t, dispozitivul a
functionat . Conditia din definitie este o probabilitate conditionata :
r(t)t = P ({t
=

T < t + }| {T

t}) =

P ({t

T < t + t})
=
P ({T t})

F (t + t) F (t)
R(t + t) R(t)
=
.
R(t)
R(t)

In ultima relatie mpartim prin t si trecem la limita pentru t 0. Daca aceasta limita
exista, gasim ecuatia diferentiala

R (t)
= r(t),
R(t)

Variabile aleatoare continue

147

cu conditia initiala
R(0) = 1,
care are ca solutie
R(t) = e

Rt
0

r(s)ds

(3.56)

Exemplul 3.7.1 Rata de defectare a unui utilaj este r(t) = 0, 1. Cu ce probabilitate


dispozitivul functioneaza cel putin 10 ore ? Inlocuim n (3.56) r(t) = 0, 1 si observam ca
dispozitivul functioneaza cel putin 10 ore este evenimentul {T 10}, deci
t

R(10) = e

0, 1ds
0

= e1 = 0, 368

In practica sunt utilizate o parte din repartitiile continue prezentate anterior, dar si altele
specifice.
Repartitia exponential
a. are densitatea de probabilitate
t
e , daca t 0,
f (t) =
( > 0).

0,
daca t < 0,
Se verifica imediat ca f este o densitate de probabilitate. Functia de fiabilitate este

R(t) =

f (s)ds = et ,

iar rata de defectare


r(t) =

R (t)
=
R(t)

este deci constanta. Aceasta repartitie este utilizata pentru dispozitive care nu mbatranesc.
Repartitia Weibull. Are densitatea de probabilitate

t1 et , daca t 0,
(, R+ ).
f (t) =

0,
daca t < 0
Functia de fiabilitate este

R(t) = et ,
iar rata de defectare
r(t) = t1 .
Pentru = 1 se regaseste repartitia exponentiala, iar pentru = 2 se obtine repartitia
Rayleigh. Faptul ca rata este o functie polinomiala, face sa modeleze mai bine diferitele
situatii practice; de aceea repartitia Weibull este des utilizata.

148

Variabile aleatoare continue

Pentru diferite valori ale lui , n Figura 3.18 sunt reprezentari grafice ale densitatii
de probabilitate, iar n Figura 3.19 si 3.20 ale ratelor si functiilor de fiabilitate.
In general variatia defectiunilor unui dispozitiv se poate mparti n trei perioade.
1. perioada initiala n care apar defectiuni datorate erorilor de fabricatie si se face
rodajul (copilaria);
2. perioada de functionare care ncepe dupa rodaj, cand numarul defectiunilor scade,
ramanand practic constant (maturitatea), pentru care se poate utiliza distributia exponentiala;
3. perioada n care intensitatea de defectare creste continuu, datorita uzurii (batranetea).
Componentele unui dispozitiv pot fi legate n serie, sau n paralel. Vom analiza
modul de determinare a fiabilitatii pentru fiecare situatie n parte.
Legare n serie. Spunem ca un dispozitiv are n componente legate n serie, daca
defectarea uneia, atrage nefunctionarea ntregului sistem. Convenim sa vizualizam prin
schema de la Figura 3.21.
Presupunem ca fiecare componenta Ci , i = 1, . . . n, se poate defecta indiferent de
celelalte, cu rata de defectare ri si functia de fiabilitate Ri . Daca T , respectiv Ti , i =
1, . . . , n semnifica timpul de functionare pana la prima defectare a sistemului, respectiv a
componentei Ci , atunci evident
n

{T

t} =

{Ti

t}

i=1

si aplicand probabilitatea pentru evenimente independente gasim


t n
n

R(t) =

Ri (t) =

i=1

ri (s)ds

0 i=1

i=1
t n

=e

ri (s)ds
0 i=1

Deci rata de defectare este

r(t) =

ri (t).
i=1

Observam ca T = min{T1 , . . . , Tn }.
Legare n paralel. Un dispozitiv are n componente legate n paralel, daca acesta
poate functiona, chiar daca una din componente se defecteaza.
Sistemul nu functioneaza daca fiecare din componente nu functioneaza; presupunem
ca acestea se pot defecta independent una de alta. Atunci obtinem
n

{T < t} =

{Ti < t}
i=1

Variabile aleatoare continue

149

si daca aplicam probabilitatea


n

1 R(t) =

(1 Ri (t)) .
i=1

Observam ca T = max{T1 , . . . , Tn }. In acest caz nu putem gasi o expresie simpla a ratei


de defectare a sistemului. In practica aceste moduri de alcatuire apar combinat.
Reprezentam acest lucru n Figura 3.22.
Exemplul 3.7.2 In schema alaturata componentele Ci functioneaza independent, cu
aceeasi functie de fiabilitate.
Sa determinam functia de fiabilitate a sistemului. Dispozitivul functioneaza la momentul t, daca
{T > t} = ({T1 > t} {T3 > t}) ({T1 > t} {T4 > t})
({T2 > t} {T4 > t}) .
Calculam acum probabilitatea acestei reuniuni, folosind independenta
R(t) = R1 (t)R3 (t) + R1 R4 (t) + R2 (t)R4 (t) R1 (t)R3 (t)R4 (t)
R1 (t)R2 (t)R4 (t) R1 (t)R2 (t)R3 (t)R4 (t) + R1 (t)R2 (t)R3 (t)R4 (t) =
= 3R12 (t) 2R13 (t).

150

Variabile aleatoare continue

PROBLEME PROPUSE
Problema 3.1 O variabila aleatoare X are repartitia data de legea triunghiului
dreptunghic pe intervalul (0, a), a > 0 (vezi Figura 3.24). Gasiti :
a. densitatea de probabilitate;
b. functia de repartitie;
c. probabilitatea ca variabila aleatoare X sa ia valori n intervalul (a/2, a);
d. media si dispersia.
Solutie a. Scriem dreapta cu taieturile (a, 0) si (a/2, 0) si gasim

x
2

(1 ), x (0, a),
a
a
f (x) =

0,
x
/ (0, a) ;

x 0,

0,

x
x
(2 ), 0 < x a,
b. F (x) =
a
a

1,
x > 0.
a
a
1
c. P ({X ( , a)}) = F (a) F ( ) = ;
2
2
4
a 2
a2
d. M [X] = , D [X] = .
3
18
Problema 3.2 Determinati functia de repartitie a variabilei aleatoare X, repartizata
1
Cauchy, deci cu densitatea de probabilitate f (x) = (1+x
x IR.
2) ,
R: F (x) =

arctan x + 12 .

Problema 3.3 O variabila aleatoare X are repartitia Simpson sau legea triunghiului
isoscel pe un interval (a, a), a > 0.
Gasiti
a. densitatea de probabilitate;
b. functia de repartitie.
R: Graficul este dat de Figura 3.25

x
1

(1 ), 0 < x < a,

a
a

1
x
a. f (x) =
(1 + ), a < x < 0, ;

a
a

0,
|x| a.

Variabile aleatoare continue

b. F (x) =

151

0,
x 0,

1 2
1

a (x + a) + 2a2 (x a ), a < x

x2
1 1

+
(x

),

2 a
2a

1,

0,

x<a

x > a.

Problema 3.4 Determinati media si dispersia variabilei aleatoare exponentiale, avand


densitatea de probabilitate
x
e , x 0,
f (x) =

0,
x < 0.
1
1
, D2 [X] = 2 .

Problema 3.5 Determinati media si dispersia repartitiei Laplace, cu densitatea de

probabilitate f (x) = e|x| , > 0, x IR.


2
2
R: M [X] = 0, D2 [X] = 2 .

Problema 3.6 Determinati media si dispersia variabilei aleatoare repartizata uniform


pe intervalul (a, b).
(a b)2
a+b
, D2 [X] =
.
R: M [X] =
2
12
Problema 3.7 O variabila aleatoare este repartizata normal N (m, 2 ). Sa aproximam
X pe un interval (, ) cu legea uniforma, daca m, raman constanti.
Solutie. Folosim problema precedenta si egalam mediile si abaterile medii patratice
R: M [X] =

=
= m,
2
2 3

de unde = m 3, = m + 3.
Problema 3.8 O variabila aleatoare X : N (m, 2 ) poate avea parametrii m = 2, = 2
cu probabilitatea 0,4 sau m = 2, = 1 cu probabilitatea 0,6 determinati densitatea de
probabilitate.
Solutie . Folosim generalizarea formulei probabilitatii totale, din 3.2. Avem
(x2)2
0, 6 (x2)2
0, 4
f (x) = e 8 + e 2 .
2 2
2

Problema 3.9 Intr-o sectie se produc articole care corespund calitativ, daca satisfac o
anumita proprietate masurabila printr-o caracteristica numerica. Se observa unele deviatii

152

Variabile aleatoare continue

de la normele impuse, care sunt repartizate normal, cu media m = 0 si abaterea . La


controlul de calitate se elimina acele produse ale caror deviatii depasesc marimea .
Determinati probabilitatea evenimentului A un articol este respins.
R : P (A) = P ({|X| > }) = 1 2(
).

Problema 3.10 Fie , a > 0 si n IN . Determinati a si astfel ca functia


fn (x) = axn e

2 x2

, x>0

sa fie o densitate de probabilitate pentru o variabila aleatoare cu media m.


Solutie. Punem conditiile
+

n 2 x2

ax e

dx = 1,

axn+1 e

2 x2

dx = m

si gasim
a=

)
2n+1
1 ( n+2
2
,

=
n+1
n+1 .
m ( 2 )
( 2 )

Problema 3.11 Un mesaj este asteptat printr-un canal de comunicatie. Momentul


T la care mesajul este primit este aleator si are functia de densitate f (t). La un moment
dat , se observa ca mesajul nu a ajuns nca. Determinati densitatea de probabilitate
a timpului care ramane pana la receptionarea mesajului, .
Solutie . Fie A evenimentul mesajul nu a fost receptionat pana la momentul .
Folosind formula lui Bayes, gasim

f (t)

, t > ,

f (t)
1 0 f (t)dt
fA (t) =
=
P (A)

0,
t < .
Deoarece = T , rezulta

(t) =

f (t)
,

1 0 f (t)dt

t > 0,

0,

t < 0.

Problema 3.12 Un sistem de comunicatie accepta un voltaj pozitiv V la intrare, iar


la iesire un voltaj Y = V + N , unde = 102 , iar N este o variabila aleatoare normala
cu m = 0, = 2. Ce valoare trebuie sa ia V , astfel ca la iesire voltajul sa fie pozitiv cu
siguranta 1 , = 106 .
Solutie . Punem conditia ca P ({Y < 0}) = 106 si gasim
P ({Y < 0}) = P ({V + N < 0}) = P ({N < V }) =

Variabile aleatoare continue

153

De aici gasim ca V = 950, 6.


Problema 3.13 Legea evenimentelor rare n plan. Un semnal luminos se poate produce
aleator cu densitatea , pe cadranul unui osciloscop. Gasiti repartitia R, care da distanta
de la semnal, la cel mai apropiat vecin, media si dispersia.
Solutie . Evenimentul {R < r} nseamna ca cel putin un semnal se produce n interiorul discului de raza r. Numarul mediu de aparitii n acest disc este r2 , deci
2
P ({R < r}) = 1 P ({R r}) = 1 er , r > 0, daca generalizam rationamentul de
2
la legea Poisson. Densitatea de probablitate, este f (r) = 2rer , r > 0. Aceasta
repartitie este repartitia Rayleigh.
(4 )
1
M [R] = , D2 [R] =
.
4
2
Analog se poate deduce repartitia evenimentelor rare n spatiu, care are densitatea de
4
3
probabilitate f (r) = 4r2 e 3 r , r > 0, unde r este raza unei sfere alese convenabil.
Problema 3.14 In timpul functionarii unui calculator, defectiunile pot aparea la
momente aleatoare. Timpul T n care acesta functioneaza fara defectiuni, urmeaza o lege
exponentiala cu parametru , adica (t) = et , > 0. Daca o defectiune apare este
imediat ndepartata ntr-un interval de timp t0 , dupa care calculatorul functioneaza din
nou. Notam cu Z intervalul de timp ntre doua defectiuni. Aflati P ({Z > 2t0 }).
Solutie. Avem Z = T + t0 si functia de repartitie este
F (t) = P ({Z < t}) = P ({T < t t0 }) = FT (t t0 ).
Prin derivare
F (t) = fT (t t0 ) =

e(tt0 ) , t > t0
.
0,
t<0

Atunci P ({Z > 2t0 }) = et0 .


Problema 3.15 Timpul T ntre doua defectiuni ale unui calculator, urmeaza o lege
exponentiala cu parametru . Rezolvarea unei anumite probleme necesita functionarea
fara defectiuni a componentelor pentru un timp ; daca o defectiune apare n timpul
rezolvarii, problema poate fi reluata. Fie variabila aleatoare care reprezinta intervalul
de timp n care problema va fi rezolvata. Sa determinam repartitia si media variabilei
aleatoare .
Solutie. Daca problema a fost rezolvata n intervalul , nseamna ca T > si R( ) =
P ({T > }) = e , pe care o notam p. Evenimentul contrar se produce cu probabilitatea
1 p. Daca problema a fost rezolvata n intervalul ((n 1), n ), aceasta nseamna ca au
survenit defectiuni ale calculatorului n intervalele (0, ), (, 2 ), . . . ((n 2), (n 1) )
si aceasta se ntampla cu probabilitatea p(1 p)n1 . Variabila cautata este
:

n
p(1 p)n1

.
p
Problema 3.16 Durata vietii unui circuit integrat normal este data de o lege exponentiala cu rata , iar a unui circuit rebut 1000. Probabilitatea de a extrage un
care are media

154

Variabile aleatoare continue

circuit integrat normal dintr-un lot este p. Gasiti probabilitatea ca alegnd un circuit la
ntamplare, acesta sa functioneze dupa t secunde. Presupunem ca fiecare este testat t
secunde. Pentru ce valoare a lui t, 99% dintre circuite sunt bune.
Solutie . Fie B evenimentul de a alege un circuit normal, R de a alege un circuit
rebut, iar C de a alege un circuit care sa functioneze dupa t secunde. Are loc, daca
folosim formula probabilitatii totale
P (C) = pet + (1 p)e1000t .
Calculam PC (B) cu formula lui Bayes si din conditia PC (B)
1
(1 p)99
t=
ln
.
999
p

0, 99, avem

Problema 3.17 Variabila aleatoare (X, Y ) are densitatea de probabilitate f (x, y). Exprimati probabilitatile urmatoarelor evenimente: 1.{X > Y },
2.{X > |Y |}
3.{|X| > Y } 4.{Y X > 1}.
+

2. P ({X > |Y |}) =

dx
0

f (x, y)dx;

dy

Solutie 1. P ({X > Y }) =

f (x, y)dy;
x
x

3. P ({|X| > Y }) =

dx

f (x, y)dy +

f (x, y)dy;

f (x, y)dxdy.

dx

4. P ({Y X > 1}) =

dx

x+1

Domeniile de integrare sunt reprezentate mai jos.


Problema 3.18 Variabila aleatoare X are repartitia exponentiala cu densitatea f (x) =
e , x > 0. Sa determinam conditiile n care variabila aleatoare Y = eX are medie si
dispersie.
x

Solutie. M [Y ] =

ex ex dx =

e(1)x dx. Pentru > 1, exista media

egala cu
. Pentru
1, integrala din definitia mediei este divergenta. Pentru
1

> 2, M [Y 2 ] =
si deci exista dispersie, iar daca 2 aceasta nu exista.
2
Problema 3.19 Variabila aleatoare X are densitatea de probabilitate
f (x) =

1

cos x, x ( , );
2
2 2

calculati media si dispersia variabilelor aleatoare X si Y = | sin X|.

2
1 2
1
1
2
Solutie. M [X] = 0, D [X] =
2, M [Y ] =
| sin x| cos xdx = , D2 [Y ] = .
4
2 2
2
12
Problema 3.20 Variabilele aleatoare X si Y au repartitii exponentiale
f1 (x) = ex , x > 0; f2 (x) = ey , y > 0.

Variabile aleatoare continue

155

Determinati densitatea de probabilitate f (x, y) si functia de repartitie F (x, y) pentru


variabila aleatoare bidimensionala (X, Y ), daca X, Y sunt independente.
Solutie.

0
f (x, y) =

0,

e(x+y) , x > 0 si y > 0;

0,
F (x, y) =

0 sau y

0 sau y

0,

(1 ex )(1 ey) , x > 0 si y > 0.

Problema 3.21 Variabila aleatoare (X, Y ) este repartizata constant n patratul de


latura a, pe care l notam D si nula n afara. Determinati f (x, y) si F (x, y), functiile de
densitate marginale f1 (x), f2 (y). Stabiliti daca X si Y sunt independente.
Solutie.

2 , (x, y) D,
a
f (x, y) =

0, (x, y)
/ D;

F (x, y) =

0,

0 sau y

xy
, 0
a2

y
,
a

1,

a,

0,
si 0

x > a si 0 < y
0<x

a,

a,

a si y > a,

x > 0 si y > a;

, x (0, a),
a
fX (x) =

0, x
/ (0, a);

, y (0, a)
a
fY (y) =

0, y
/ (0, a).

Problema 3.22 Functia f (x, y) este constanta n interiorul unui cerc de raza r si
nula n afara. Determinati raza r astfel ca f (x, y) sa fie o densitate de probabilitate pentru o variabila aleatoare bidimensionala (X, Y ), fX (x), fY (y), fX (x|y), fY (y|x). Calculati
Cov[X, Y ].
Solutie. Cautam densitatea de probabilitate de forma
f (x, y) =

h, x2 + y 2 < r2 ,
0, x2 + y 2 r2 .

156

Variabile aleatoare continue

Punem conditia ca 1 =
fX (x) =

f (x, y)dxdy = hr2 . Deci r =

2h r2 x2 , |x| < r,
0,
|x| > r;

fY (y) =

1
,
f (x, y)
=
fX (x|y) =
2 r2 y 2

fY (y)
0,

1
,
f (x, y) 2
fY (y|x) =
=
2 r x2
0,
fX (x)

2h
0,

1
.
h

r2 y 2 , |y| < r,
|y| r;

|x| <

r2 y 2 ,

|x| >

r2 y 2 ;

|y| <
|y| >

r 2 x2 ,
r 2 x2 .

Avem imediat M [X] = M [Y ] = 0, D[X] = D[Y ] = 2r . M [XY ] =


Deci Cov[X, Y ] = 0.

xyf (x, y)dxdy = 0.

Problema 3.23 O variabila aleatoare are densitatea de probabilitate constanta n


patratul D din Figura 3.30.
Gasiti f (x, y), fX (x), fY (y), fX (x|y), fY (y|x) si stabiliti daca sunt independente; dar
corelate ?
Solutie.
f (x, y) =

1
, (x, y) D,
2
0, (x, y)
/ D;

fX (x) =

1 |x|, |x| < 1,


0,
|x| > 1.

Analog
fY (y) =

1 |y|, |y| < 1,


0,
|y| > 1,

care sunt repartizate Simpson.

1
f (x, y)
,
fX (x|y) =
=
2(1 |y|)
0,
fY (y)

1
f (x, y)
,
fX (x|y) =
=
2(1 |x|)
0,
fX (x)

|x| < 1 |y|


|x| > 1 |y|;
|y| < 1 |x|
|y| > 1 |x|.

X si Y nu sunt independente, dar nici corelate. M [X] = M [Y ] = 0, iar M [XY ] =


+ +
xyf (x, y)dxdy = 0. Cov[X, Y ] = 0.

Problema 3.24 Variabila aleatoare (X, Y ) este uniform repartizata n interiorul unui
cerc de raza r = 1 cu interiorul D. Gasiti media si dispersia variabilei Z = XY .
1
1
1
Solutie. M [XY ] =
xydxdy = 0; D2 [XY ] =
x2 y 2 dxdy = .

8
D
D
Problema 3.25 O variabila aleatoare (X, Y ) este uniform repartizata ntr-un patrat
de latura 1. Gasiti media si dispersia variabilei XY .

Variabile aleatoare continue

157

1
Solutie. Pentru ca X si Y sunt independente M [XY ] = M (X)M (Y ) = ; D2 [XY ] =
4
1
.
144
2
Problema 3.26 Variabilele X si Y sunt legate prin Y = 2 3X si mx = 1, DX
= 4.
2
Gasiti my , DY , Cov[X, Y ], [X, Y ].
R: M [Y ] = M [2 3X] = 2 3(1) = 5;D2 [Y ] = (3)2 4 = 36. Din M [X 2 ] =
D2 [X] + M 2 [X], deducem M [X 2 ] = 5 Cov[X, Y ] = M [X(2 3X]) + 1 5 = 12
12
= 1.
[X, Y ] =
D[X]D[Y ]
Problema 3.27 Variabilele aleatoare X, Y, Z au mediile mx , my , mz si matricea de
covarianta

D[ X]
Cov[X, Y ] Cov[X, Z]

[
Cov[X, Y ]
.
D
Y
]
Cov[Y,
Z]

[
Cov[X, Z] Cov[Y, Z]
D Z]
Gasiti media si dispersia variabilei U = aX bY + cZ d, a, b, c, d IR.
R: M [U ] = a mx b my + c mz d, D2 [U ] = a2 D[ X] + b2 D[ Y ] + c2 D2 [Z]
2 a b Cov[X, Y ] + 2 a c Cov[X, Z] 2 b c Cov[Y, Z].
Problema 3.28 X, Y sunt variabile aleatoare independente X : N (1, 4), Y : U (0, 2).
Gasiti M [X + Y ], M [XY ], M [X 2 ], M [X Y 2 ], D2 [X + Y ], D2 [X Y ].
R: M [X + Y ] = 2, M [XY ] = M [X]M [Y ] = 1, M [X 2 ] = 5, M [X Y 2 ] =
1
13
, D2 [(X + Y )] = D2 [(X Y )] = .
3
3
Problema 3.29 Densitatea de probabilitate a unei variabile aleatoare bidimensionale
normale este
1
1 1.28
((x2)2 1,2(x2)(y+3)+(y+3)2 ) .
f (x, y) =
e
1, 6
Calculati covarianta variabilelor marginale.
R: Cov[X, Y ] = 0, 6.
Problema 3.30 Un voltmetru nregistreaza cea mai mare dintre doua tensiuni V1 , V2 .
Variabilele V1 , V2 sunt independente si au aceeasi densitate f (v). Gasiti media variabilei
V = max{V1 , V2 }.
+

Solutie. m =

v1

x1 dv1

f (v2 )dv2 +

v2

v2 f (v2 )dv2

f (v1 )dx1 .

158

Variabile aleatoare continue

Capitolul 4
Probleme la limit
a n teoria
probabilit
atilor
Baza teoretica a statisticii matematice, care confera garantii asupra valabilitatii studiului statistic al fenomenelor aleatoare, se sprijina pe proprietatile de convergenta ale
sirurilor de variabile aleatoare. Prezentam principalele tipuri de convergenta si unele
proprietati ale sirurilor de variabile aleatoare referitoare la acestea.

4.1

Convergenta n probabilitate

Fie { E, K, P } un camp de probabilitate, {Xn }nIN un sir de variabile aleatoare, X


o variabila aleatoare, toate definite pe {E, K, P }.
Definitia 4.1.1 Sirul {Xn }nIN converge n probabilitate c
atre X (vom folosi notatia
prob

{Xn } X) daca
> 0 : lim P ({e E | |Xn (e) X(e) | > }) = 0

(4.1)

> 0 : lim P ({e E | |Xn (e) X(e) |

(4.2)

sau, echivalent,
n

}) = 1.

Observatia 4.1.1 Se poate defini si convergenta n probabilitate a sirului de variabile


aleatoare {Xn }nIN catre constanta c deoarece orice constanta este un caz particular de
variabila aleatoare.
Propriet
ati ale convergentei n probabilitate.
Propozitia 4.1.1 Limita unui sir de variabile aleatoare convergent n probabilitate este
unic
a aproape sigur.
prob

Demonstratie. Aratam ca daca exista doua variabile aleatoare X si Y astfel ncat {Xn }
prob

X, {Xn } Y atunci P ({X = Y }) = 0. Fie


< | X Y | = | X Xn + Xn Y |
159

| X Xn | + | Xn Y |


Probleme la limita

160
de aici rezulta

{ | X Y | > } { | X Xn | > } { | Xn Y | > },


2
2
deci
P ({ | X Y | > }

P ({ | X Xn | > })+
2

+P ({ | Xn X | > }).
2
prob

prob

Deoarece {Xn } X si {Xn } Y rezulta, trecand la limita,


0

P ({ | X Y | > })

lim P ({ | X Xn | > })+


n
2

+ lim P ({ | Xn Y | > }) = 0
n
2
deci P ({| X Y | > }) = 0.
prob

prob

prob

Propozitia 4.1.2 Dac


a {Xn } X, {Yn } Y si a, b IR atunci {aXn + bYn }
aX + bY .
Demonstratie. Fie > 0. Urmand un rationament analog cu cel folosit n proprietatea
precedenta, putem scrie
P ({|(aXn + bYn ) (aX + bY )| > }) = P ({|a(Xn X) + b(Yn Y )| > })

P ({|a||Xn X| > }) + P ({|b||Yn Y | > }).


2
2
prob

prob

T
inand seama ca {Xn } X si {Yn } Y si trecand la limita obtinem
lim P ({|(aXn bYn ) (aX + bY )| > }) = 0

n
prob

adica {aXn + bYn } aX + bY .

4.2

Legea numerelor mari (forma slab


a)

Un tip de probleme la limita, bazat pe notiunea de convergenta n probabilitate, cu


semnificatie de maxima importanta asupra legaturii dintre conceptele de baza ale teoriei
probabilitatii si notiunile empirice, este cel cunoscut sub denumirea de legea numerelor
mari. Aceasta este un ansamblu de rezultate privind convergenta catre 1 a probabilitatilor
unui sir de evenimente depinzand de un numar crescand de factori aleatori.


Probleme la limita

161

Teorema 4.2.1 Fie (Yn )nIN un sir de variabile aleatoare admit


and valori medii si dispersii finite si fie
M [Yn ] = Mn < , D2 [Yn ] = n2 < .
Dac
a exista o constant
a M astfel nc
at
lim Mn = M si lim n2 = 0,

(4.3)

atunci

prob

{Yn } M.
Demonstratie. Observam ca pentru orice > 0

{|Yn M | > } {|Yn Mn | > } {|Mn M | > }.


2
2
Putem scrie

P ({|Yn Mn | > }) + P ({|Mn M | > }).


2
2
Aplicand inegalitatea lui Cebasev variabilei aleatoare Yn obtinem
P ({|Yn M | > })

P ({|Yn Mn | > })

D2 [Yn ]
n2
=
.
2
2

Deorece lim Mn = M rezulta ca > 0, N () IN astfel ncat n


n

|Mn M | > devine imposibila, adica


2
n

(4.4)

(4.5)
N () inegalitatea

N () : P ({|Mn M | > }) = 0.

Trecand la limita n (4.4), tinand seama de (4.5) si de ipotezele (4.3) rezulta


lim P ({|Yn M | > }) = 0.

Teorema 4.2.2 (forma slaba a teoremei lui Jacob Bernoulli)

Sn
Prima formulare: Daca A un eveniment caracterizat prin P (A) = p = 0 si
frecventa
n
relativ
a de realizare a evenimentului A n primele n probe ale unui sir infinit de probe
independente, atunci
Sn
> 0 : lim P ({| p| > }) = 0
n
n
sau, echivalent,
Sn
> 0 : lim P ({| p| }) = 1.
n
n
A doua formulare: Daca {Xn }nIN un sir de variabile aleatoare independente astfel
n
1
nc
at Xn : Bi(n, p), n IN , atunci sirul de variabile aleatoare {
Xk }nIN converge n
n k=1
1
probabilitate catre p, adica {
n

prob

Xk } p.
k=1


Probleme la limita

162

Demonstratie. Demonstram teorema lui Bernoulli sub cea de-a doua forma. Notam
1
Yn =
n

Xk
k=1

si tinem seama ca
M [Yn ] =

1
n

M [Xk ] =
k=1

1
1
np = p, D2 [Yn ] = 2
n
n

D2 [Xk ] =
k=1

npq
pq
=
,
n2
n

deci lim M [Yn ] = p si lim D2 [Yn ] = 0, ceea ce arata ca ipotezele Teoremei 4.2.1 sunt
n

1
satisfacute, deci {
n

prob

Xk } p.
k=1

Observatii.
1. Prima formulare a teoremei lui Bernoulli constituie justificarea teoretica a apropierii
facute ntre conceptele de frecventa relativa si probabilitate a unui eveniment. Ea
exprima faptul ca pentru siruri foarte mari de probe orice diferenta sensibila ntre
frecventa relativa a unui eveniment si probabilitatea sa devine foarte improbabila.
Deci convergenta frecventelor relative catre probabilitatea evenimentului nu trebuie
nteleasa ca o convergenta numerica obisnuita; nu rezulta din teorema de mai sus
si nici nu este intuitiv acceptabila ideea ca odata cu cresterea numarului de probe
valorile frecventelor relative sunt, obligatoriu, mai apropiate de probabilitate.
2. Cele doua formulari decurg una din cealalta daca tinem seama ca frecventa absoluta
de realizare a lui A n n probe. Fie Xn o variabila aleatoare repartizata Bi(n, p).
n
n
Sn
1
Xk , atunci
Daca notam Sn =
Xk si deci
=
n
n
k=1
k=1
lim P ({|

Sn
p| > }) = 0
n

ceea ce nu nseamna altceva decat ca


1
{
n

prob

Xk } p.
k=1

3. Rezultatul teoremei constituie justificarea teoretica a definitiei notiunii de estimatie a unui parametru al unei repartitii, notiune de mare importanta n statistica
matematica.
Teorema 4.2.3 (Cebasev) Daca (Xn )nIN este un sir de variabile aleatoare independente
dou
a cate doua, avand dispersiile marginite de o aceeasi constant
a
D2 [Xn ]

c2 , n IN,


Probleme la limita

163

atunci
> 0 : lim P ({|
n

1
n

Xk
k=1

1
n

M [Xk ]| > }) = 0
k=1

sau, echivalent,
1
> 0 : lim P ({|
n
n

1
Xk
n
k=1

M [Xk ]|

}) = 1,

k=1

adic
a are loc convergenta n probabilitate a sirul de variabile aleatoare,
{

1
Demonstratie. Daca Yn =
n

1
n

prob

(Xk M [Xk ])} 0.


k=1

(Xk M [Xk ]) atunci


k=1

1
(Xk M [Xk ])] =
n
k=1

1
M [Yn ] = M [
n

1
M [Xk ]
n
k=1

M [Xk ] = 0
k=1

si deoarece variabilele aleatoare Xn sunt independente doua cate doua, rezulta (Xk M [Xk ])
sunt independente doua cate doua si deci

D2 [Yn ] = D2 [

1
n

(Xk M [Xk ])] =


k=1

1
n2

D2 [Xk M [Xk ]] =
k=1

1
n

D2 [Xk ].
k=1

Aplicand inegalitatea lui Cebasev variabilei aleatoare Yn si tinand seama de ipotezele


problemei, putem scrie
P ({|

1
n

Xk
k=1

1
n

si deci
lim P ({|

1
n

M [Xk ]| > })
k=1

Xk
k=1

1
n

1
2
n 2

D2 [Xk ] <
k=1

M [Xk ]| > })
k=1

nc2
c2
=
n2 2
n2

c2
= 0.
n n2
lim

Teorema 4.2.4 (Markov) Dac


a variabilele aleatoare X1 , X2 , . . . , Xn , . . . au proprietatea
c
a:
n

D [

Xi ]
i=1
n2

atunci are loc legea numerelor mari.

0, n ,


Probleme la limita

164

Demonstratie. Trebuie demonstrat ca sirul {Xn }nIN verifica relatia:


1
> 0 : lim P ({|
n
n

1
Xk
n
k=1

M [Xk ]|

}) = 1.

k=1

Aplicam inegalitatea lui Cebasev pentru variabilele aleatoare:


n

Xi /n, D2 [Y ] = D2 [

Y =
i=1

Xi /n] =
i=1

1 2
D [
Xi ] 0, n .
n2
i=1

Deci D2 [Y ] < si atunci are loc inegalitatea lui Cebasev:


n

P (|Y M [Y ]|

1 1 2
D [ Xi ].
2 n2
i=1

1 2
D [
Xi ] 0, daca n . Trecand la limita n inegalitatea precedenta,
n2
i=1
obtinem afirmatia teoremei.
Dar

Observatia 4.2.1 In cazul particular cand variabilele aleatoare sunt independente, conditia din enunt se scrie:
n

D2 [Xi ]
i=1

0, n .
n
Teorema 4.2.5 (Hincin) Daca {Xn }nIN este un sir de variabile aleatoare independente
dou
a cate doua urmand aceeasi repartitie si avand dispersii finite, atunci
n

1
Xk M | > }) = 0.
lim P ({|
n
n k=1
unde M = M [Xn ], n IN.
Demonstratie. Daca variabila aleatoare {Xn }nIN urmeaza aceeasi repartitie, rezulta
D2 [Xn ] = 2 , n IN , ceea ce implica satisfacerea ipotezelor Teoremei lui Cebasev.
Observatie. Acest rezultat fundamenteaza teoretic procesul uzual de aproximare a
mediei caracteristicii studiate a unei populatii statistice prin media atitmetica a valorilor
observate. Intr-adevar, daca X1 , X2 , . . . Xn , . . . sunt privite ca valori potentiale ale unei
variabile aleatoare X obtinute printr-un sir de probe independente, atunci teorema arata
ca media aritmetica a acestora converge catre M = M [X].
Ca un caz particular al teoremei lui Cebasev se obtine teorema lui Poisson.
Teorema 4.2.6 (Poisson) Fie A un eveniment a carui probabilitate de realizare variaza
pe parcursul unui sir de probe independente, astfel nc
at la proba de rang k, P (A) =
Sn
frecventa de realizare a evenimentului A n primele n probe.
pk , k = 1, 2, . . . si fie
n
Atunci
Sn p1 + p2 + . . . + pn
lim P ({ |

| > }) = 0.
n
n
n


Probleme la limita

165

Demonstratie. Definim, pentru fiecare k = 1, 2, . . . n, . . . variabila aleatoare Xk ce ia


valorile 1 sau 0 dupa cum A se realizeaza sau nu n proba de rang k. In consecinta, Xk
este definita
0
1
Xk :
.
1 pk pk
Notand cu Sn numarul de realizari ale lui A n primele n probe, se constata
Sn
1
fn (A) =
=
n
n

Xk .
k=1

Deoarece X1 , X2 , . . . Xn , . . . sunt variabile aleatoare independente si deoarece


M [Xk ] = pk , D2 [Xk ] = M [Xk2 ] M [Xk ]2 = pk p2k = pk (1 pk )

1
,
4

rezulta ca sirul {Xn }nIN verifica ipotezele Teoremei lui Cebasev si deci
lim P ({ |

Sn p1 + p2 + . . . + pn

| > }) =
n
n

1
= lim P ({ |
n
n

4.3

1
Xk
n
k=1

M [Xk ] | > )} = 0.
k=1

Aproxim
ari pentru repartitii discrete

Reamintim ca o variabila aleatoare binomiala care ia n valori pote fi scrisa ca o suma


de n variabile aleatoare X1 , X2 , . . . Xn ,
Xk :

0
1
1p p

, k = 1, n.

Xk este o variabila aleatoare repartizata binomial, Bi(n; p). Am vazut ca

Atunci Y =
k=1

o variabila aleatoare binomiala, Bi(n; p), pentru valori mari ale lui n poate fi aproximata
cu o variabila aleatoare Poisson, daca p este suficient de mic astfel ncat np = =
constant. Vom arata ca o variabila aleatoare binomiala, Bi(n; p) poate fi aproximata cu
o variabila aleatoare repartizata normal pentru orice valoare fixata a lui p si pentru n
suficient de mare.
De exemplu, aruncam un ban de 100 de ori. Ne intereseaza probabilitatea ca sa
obtinem fata care contine banul de 50 de ori. Raspunsul
50
p = C100

1
2100

100! 1
50!50! 2100

este nesatisfacator deoarece nu ne da nici o idee asupra marimii probabilitatii. Nu putem


stabili daca aceasta probabilitate este n jurul lui 1/2 sau 1/10 sau 1/50. Dificultatea
apare n calculul lui n! pentru n suficient de mare.


Probleme la limita

166

Problema care se pune este de a gasi o alta functie h(n) care sa constituie o buna
aproximare n pentru n! (o buna aproximare n sensul ca n! si h(n) sa creasca aproape la
n!
fel de repede odata cu n, sau |n! h(n)| sa fie mic cand n creste sau lim
= 1).
n h(n)
Definitia 4.3.1 Fie f, g : IR IR. Spunem ca f si g sunt asimptotic egale si notam
f g daca
f (n)
lim
= 1.
n g(n)
Relatia f si g sunt asimptotic egale este o relatie de echivalenta pe multimea functiilor
neidentic nule. Proprietatile de reflexivitate, simetrie si tranzitivitate rezulta imediat.
De exemplu, un polinom n variabila n este asimptotic egal cu termenul sau dominant.
In cele ce urmeaza vom ncerca sa gasim o functie h(n) astfel ncat
n!
= 1.
n h(n)
lim

Expresia unei astfel de functii este sugerata de formula lui Stirling (vezi Anexa 2)
n
h(n) = ( )n n 2.
e
Pare mai neplacut sa calculam h(n) decat n!, dar este mult mai usor deoarece puterile
sunt mai lesne de calculat. Sa aplicam n cazul exemplului dat
50
p = C100

1
100! 1
=
,
200
50!50! 2100

)100 100 2 1
( 100
100 100 10
1
2100 1
e

p
=
(
)
=
=
2100
50
)100 50 2
( 50
50 2 2100
5 2 2100
e
1
= = 0, 0797884 0, 08.
5 2
Teorema 4.3.1 (teorema locala Moivre-Laplace).
Presupunem 0 < p < 1 si q = 1 p iar
k np
, 0
xn,k =
npq

n.

(4.6)

Dac
a M o constant
a pozitiv
a arbitrar
a fixata, atunci pentru acei k pentru care
|xn,k |
avem

M
2

Cnk pk q nk

xn,k
1

e 2 .
2npq

(Convergenta este n raport cu n si este uniforma relativ la k.)

(4.7)


Probleme la limita

167

Demonstratie. Din

k np
xn,k =
npq

rezulta k = np + npq xn,k , adica n k = nq npqxn,k . Deoarece |xn,k |

npq
k

=1+
xn,k 1 si deci k np,
np
np
npq
nk

=1
xn,k 1 si deci n k nq.

nq
nq
Folosind formula lui Stirling putem scrie

( ne )n n 2
k k nk
pk q nk
Cn p q
k

nk nk
k
( e ) k 2( e )
n k 2

M avem

(4.8)

1
n
(n, k),
k(n k) 2

unde

np
nq nk
nn
pk q nk = ( )k (
) .
n
nk
k (n k)
k
nk
Deoarece k np si n k nq rezulta ca
(n, k) =

Cnk pk q nk

1
(n, k).
2npq

Demonstram n continuare ca
(n, k) e

x2n,k
2 .

Folosim dezvoltarea n serie Taylor a lui ln(1 + x)


ln(1 + x) = x

x2
xn
+ . . . + (1)n1 + . . .
2
n

pentru |x| < 1

si obtinem

k npqxn,k
npqxn,k
np k
np
ln( ) = k ln( ) k ln(
) = k ln(1
)=
k
k
k
k

npq
npq
= k(
xn,k 2 x2n,k . . .),
k
2k

n k + npqxn,k
nq nk
nq
ln(
)
= (n k) ln(
) (n k) ln(
)=
nk
nk
nk

npqxn,k
npq
npq
= (n k) ln(1 +
) = (n k)(
xn,k
x2 + . . .),
nk
nk
2(n k)2 n,k
deoarece

npq
npq
|
xn,k | < 1 si |
xn,k | < 1
k
nk
sunt safisfacute pentru n suficient de mare pentru care |xn,k | < M . Deci

npq
np k
nq nk
npq
ln (n, k) = ln( ) + ln(
)
k(
xn,k 2 x2n,k . . .)+
k
nq
k
2k

(4.9)


Probleme la limita

168

npq
npq
xn,k
x2 + . . .) =
nk
2(n k)2 n,k
npq 2
npq

= ( npqxn,k
xn,k . . .) + ( npqxn,k
x2 + . . .) =
2k
2(n k) n,k
+(n k)(

npq 2
1
1
n2 pq
xn,k (
) + ... =
x2 + . . .
2
k nk
2k(n k) n,k

Justificam de ce neglijam termenii din dezvoltare de grad mai mare decat doi pentru
n . Cand n este suficient de mare, cele doua cantitati din (4.9) sunt mai mici decat
2/3 si prin urmare Lema A2.1 din Anexa 2 este aplicabila si contributia acestora la cele
doua serii este marginita de

npq
npq
3
k|
xn,k | = (n k)|
xn,k |3 .
k
(n k)
Deoarece pq < 1 si |xk |

M aceasta nu depaseste
2

n3 3
n2
M +
M 3,
2
k
(n k)2
care n mod evident tinde la zero cand n datorita relatiilor (4.8). Astfel, folosind
aceste relatii, rezulta
x2n,k
n2 pq
ln (n, k)
xn,k =
.
2npnq
2
Aceasta este echivalenta cu
x2n,k

(n, k) e 2
si de aici rezulta (4.7).
Observatia 4.3.1 Aproximarea este utilizata daca n este suficient de mare astfel ncat
np 5 si n(1 p) 5.

4.4

Convergenta n repartitie. Teorema limit


a central
a

Unele probleme n teoria probabilitatilor impun studierea unor sume cu un numar


foarte mare de variabile aleatoare. Teorema limita centrala stabileste conditiile n care
repartitia limita a sumelor considerate este normala.
Teorema 4.4.1 (Moivre-Laplace) Fie A un eveniment care are probabilitatea de realizare
p = P (A) ntr-un sir de probe independente. Daca Sn este numarul de realiz
ari ale lui A
n n probe, atunci oricare ar fi a si b, a < b,
lim P ({a

Sn np

npq

1
b}) =
2

b
a

x
e 2 dx.

(4.10)


Probleme la limita

169

Demonstratie. Fie k o valoare posibila a lui Sn astfel ncat Sn = k nseamna


Sn np
= xn,k

npq
conform relatiei (4.6). Atunci probabilitatea evenimentului din dreapta formulei (4.10)
este
P ({Sn = k}) =
Cnk pk q nk .
a<xn,k <b

a<xn,k <b

T
inand seama de faptul ca
xn,k+1 xn,k =
obtinem
a<xn,k

k + 1 np k np
1

=
,

npq
npq
npq

1
P ({Sn = k})
K a<x
<b

x
e 2 (xn,k+1 xn,k ).

(4.11)

n,k <b

Corespondenta dintre k si xn,k este bijectiva si atunci cand k variaza de la 0 la n, xn,k


np
nq
1
variaza n intervalul [
,
], nu continuu, cu pasul xn,k+1 xn,k =
. Pentru
q
p
npq
n suficient de mare intervalul va contine [a, b) iar punctele xn,k vor fi n interiorul lui [a, b),
1
. Presupunem ca cea mai mica si
mpartindu-l n intervale echidistante de lungime
npq
cea mai mare valoare a lui k ce satisfac conditiile a xn,k < b sunt, respectiv, j si l si
deci vom avea
xj1 < a < xj < xj+1 < . . . < xl1 < xl < b < xl+1 ,
si suma din (4.11) se poate scrie
l

(xn,k )(xn,k+1 xn,k ),


k=j

unde
(x) =

1 x2
e 2
K
b

Aceasta este suma Riemann pentru integrala definita a (x)dx. Facand n , divizarea devine din ce n ce mai fina si suma converge la integrala data. Ramane de
determinat constanta K. In formula
lim P ({a

Sn np

npq

1
b}) =
2

x2

e 2 dx

(4.12)

facem a = b si atunci
Sn np
lim P (b <
n
npq

b) =

1
K

b
b

x
e 2 dx.

(4.13)


Probleme la limita

170
Daca notam

Sn np
X=
,
npq

atunci
M [X] = 0, D2 [X] = 1
si obtinem

Sn np
P (|
|
npq

b)

1
.
b2

(4.14)

Combinand relatiile (4.13) si (4.14) obtinem relatia


1

1
b2

1
K

si facand b obtinem

K=

x2

e 2

x2

e 2 dx =

deci constanta K din formula lui Stirling este

2,

2.

Inainte de a da o noua formulare teoremei Moivre-Laplace, introducem notiunea de


convergenta n repartitie.
Definitia 4.4.1 Fie {Xn }nIN un sir de variabile aleatoare si {Fn }nIN sirul functiilor
de repartitie corespunz
atoare. Daca sirul functiilor de repartitie {Fn }nIN converge catre
o functie de repartitie F n fiecare punct de continuitate x0 al functiei de repartitie F
corspunz
atoare variabilei aleatoare X, adica daca
lim Fn (x0 ) = F (x0 )

aatunci spunem ca sirul {Xn }nIN converge n repartitie catre X si se noteaz


a
rep
{Xn } X.
Observatii.
1. Deoarece pot exista mai multe variabile aleatoare care au aceeasi functie de repartitie,
rezulta din definitie ca limita unui sir de variabile aleatoare convergent n repartitie
nu este unica.
2. Un exemplu de astfel de convergenta este urmatorul: daca {Xn }nIN este un sir
de variabile aleatoare repartizata Bi(n, n ), atunci {Xn }nIN converge n repartitie
catre variabila aleatoare X repartizata Poisson de parametru . (Legatura ntre
repartitia binomiala si repartitia Poisson).
Urmatoarele rezultate stabilesc legatura ntre cele doua moduri de convergenta.
prob

rep

Teorema 4.4.2 Daca {Xn } X, atunci {Xn } X.


Probleme la limita

171
prob

Demonstratie. Din definitia convergentei n probabilitate, {Xn } X, rezulta ca


> 0 : lim P ({|Xn X|
n

}) = 0.

Fie Fn functia de repartitie a variabilei aleatoare Xn , F functia de repartitie a lui X si


x0 un punct de continuitate a lui F . Atunci
> 0 > 0 : |F (x0 + ) F (x0 )|

Din
F (x0 ) = P ({X < x0 }) = P ({X < x0 } ({Xn < x0 } {Xn
= P ({X < x0 } {Xn < x0 }) + P ({X < x0 } {Xn

x0 })) =

x0 })

P ({Xn < x0 }) + P ({|Xn X| > }) = Fn (x0 ) + P ({|Xn X| > }) = 0,


prob

si tinand seama ca {Xn } X, adica


lim P ({|Xn X|

}) = 0,

rezulta
F (x0 )

lim Fn (x0 ).

Analog
F (x0 + )

lim Fn (x).

Rezulta
lim Fn (x0 ) = F (x0 ).

Observatie. Reciproca acestei teoreme nu este adevarata. Ilustram aceasta printr-un


exemplu. Fie variabila aleatoare
0 1
1 1
X:
2 2
si variabila aleatoare Y = 1 X. Variabilele aleatoare X si Y au aceeasi functie de
repartitie. ntr-adevar,
0 1
1 1
Y :
2 2

0 daca x 0
1
FX (x) = FY (x) =
daca 0 < x 1

2
1 daca x > 1
si |Y X| = |1 2X| = 1 indiferent de valoarea variabilei aleatoare X. Definim sirul de
variabile aleatoare {Xn }nIN unde Xn = Y . Rezulta ca {Xn }nIN converge n repartitie
catre X. Deoarece |Xn X| = 1 rezulta ca {Xn }nIN nu converge n probabilitate catre
X. Exista totusi un caz particular n care se poate stabili si legatura inversa.


Probleme la limita

172
rep

prob

Teorema 4.4.3 Daca C este o constant


a real
a si daca {Xn } C, atunci {Xn } C.
Demonstratie. Punand X = C am definit o variabila aleatoare a carei repartitie este
C:

c
1

Deci functia de repartite a variabilei aleatoare X este


F (x) =

0, daca x c,
1, daca x > c.

Fie > 0. Atunci


P ({| Xn c |

}) = 1 P ({c < Xn < c + }) =

= 1 P ({Xn < c + }) + P ({Xn < c + 0})

1 Fn (c + ) + Fn (c + 0)

Punctul x = c este punct de discontinuitate pentru F si


F (c + ) F (c ) = 1,
deci
P ({|Xn c|

})

F (c + ) F (c ) Fn (c + ) + Fn (c + 0).

Dar c + si c + 0 sunt puncte de continuitate ale lui F si, prin ipoteza, lim Fn (x)
n

= F (x) pentru orice punct de continuitate x a lui F , deci


lim Fn (c + ) = F (c + ),

lim Fn (c + 0) = F (c + 0) = F (c ),

si deci
lim P ({|Xn C|

}) = 0

ceea ce exprima convergenta n probabilitate a lui Xn catre C.


Vom da acum o formulare mai generala a teoremei Moivre-Laplace. Notam cu
Sn = X1 + X2 + . . . + Xn , n

1,

unde Xj , j = 1, n, sunt variabile aleatoare independente Bernoulli. Stim ca


M [Xj ] = p, D2 [Sn ] = npq, j = 1, n,
si pentru orice n,
M [Sn ] = np, D2 [Sn ] = npq.
Notam
Xj =

Sn M [Sn ]
1
Xj M [Xj ]
, Sn =
=
D[Xj ]
D[Sn ]
n

Xj .
j=1

(4.15)


Probleme la limita

173

Sn este o variabila aleatoare si se numeste variabila aleatoare normalizata. Avem pentru


fiecare j si n
M [Xj ] = 0, D2 [Xj ] = 1.
M [Sn ] = 0, D2 [Sn ] = 1.
Transformarea liniara care duce Xj n Xj sau Sn n Sn are ca scop aducerea lor la o
variabila aleatoare cu media 0 si dispersia 1. Fiecare Sn este o variabila aleatoare care ia
ca valori
k np
.
xn,k =
npq
Aceasta este tocmai xn,k din Teorema Moivre-Laplace si
P ({Sn = xn,k }) = Cnk pk q nk , 0

n.

Daca utilizam functia de repartitie corespunzatoare


P ({Sn < x}) = Fn (x),
iar daca F este functia de repartitie normala standard, atunci teorema Moivre-Laplace se
poate scrie sub o forma mai eleganta si anume
lim Fn (x) = F (x).

Observatie. Teorema poate fi extinsa n urmatorul sens: fie {Xn }nIN un sir de
variabile aleatoare independente avand aceeasi repartitie care nu trebuie sa fie specificata.
Trebuie, n schimb, ca M [Xj ] = m < si D2 [Xj ] = 2 < . Teorema lui Laplace are
loc si n aceste conditii.
Teorema 4.4.4 Pentru sumele Sn n conditiile generalizate de mai sus si pentru a < b
are loc
b
x2
Sn nm
1

lim P ({a <


b}) =
e 2 dx.
(4.16)
n
n
2 a
Exista nsa o situatie n care teorema limita centrala are o demonstratie banala. Este
cazul n care variabilele aleatoare {Xn }nIN sunt normale si independente. Atunci Sn =
X1 + X2 + . . . + Xn este tot o variabila aleatoare normala cu media nm si dispersia n 2
conform Teoremei 3.6.2.
Exemplul 4.4.1 Determinarea volumului unei selectii bernoulliene care sa permit
a aplicarea legii numerelor mari.
Legea numerelor mari (Teorema 4.2.2) afirma ca
lim P ({|fn (A) p| > }) = 0,

unde fn (A) este frecventa relativa de realizare a evenimentului A n primele n probe


independente.
fn (A) =

Sn
k
=
unde Sn = X1 + X2 + . . . + Xn , Xi : Bi(n, p), i = 1, n,
n
n


Probleme la limita

174
M[
P ({|

Sn
Sn
pq
] = p, D2 [ ] = ,
n
n
n

Sn
p|})
n

D2 [ Snn ]
pq
= 1 2,
2

Sn
pq
p| > }) < 2 < ,
n
n
fiind dat, relatia ne permite sa determinam o margine inferioara pentru volumul selectiei
n, deoarece
pq
pq
pq
1
< implica n > 2 si max 2 =
,
2
p
n

42
P ({|

adica

1
.
42
Aceasta margine inferioara este mai mult decat este necesar pentru a putea aplica Teorema
Moivre-Laplace.
Sn
Sn np
P ({| p| > }) = P ({|
| > }) =
n
n
n>

Sn np
= P ({|
|>
npq
= 1 [F (

n
) F (
pq

n
Sn np
}) = 1 P ({|
|
pq
npq
n
)] = 1 0, 5 (
pq
= 1 2(

n
}) =
pq

n
) + 0, 5 (
pq

n
)
pq

n
)<
pq

n
; problema este sa se determine z astfel ncat 1 2(z) < adica
pq
1
n
1
(z) =
. Determinam z0 din relatia (z0 ) =
si n astfel ncat
= z.
2
2
pq
z 2 pq
z 2 pq
z2
Rezulta n = 2 si deci max 2 = 2 , adica

4
Notam z =

z2
.
42

Intr-adevar, daca luam = 0, 02 si = 0, 05 obtinem, conform Legii numerelor mari


n>

1
= 125000.
4 0, 05 (0, 02)2

Folosind Teorema lui Moivre-Laplace, (z) =


n>

(1, 96)2
= 2401.
4(0, 02)2

1 0, 05
= 0, 475, adica z
2

1, 96 si deci


Probleme la limita

175

Exemplul 4.4.2 O tensiune constanta, dar necunoscuta, trebuie sa fie masurata. Fiecare masuratoare Xj se face cu o eroare Nj fata de valoarea exacta v. Eroarea Nj are media
egala cu zero si dispersia egala cu 1 microvolt.
Xj = v + Nj
Presupunem ca eroarea este o variabila aleatoare independenta. Cate masuratori sunt
necesare ca media masuratorilor sa fie cu cel mult = 1 mai mare decat valoarea exacta
cu o probabilitate de 0,99?
Fiecare masuratoare Xj are v si dispersia 1, astfel ncat folosind legea numerelor mari
obtinem:
1
1
1 2 = 1 = 0, 99.
n
n
Aceasta implica n = 100. Astfel daca repetam masuratorarea de 100 de ori si calculam
media n mod normal n 99% din situatii media obtinuta va diferi cu cel mult 1 microvolt
de valoarea exacta.
Exemplul 4.4.3 Pentru a estima probabilitatea unui eveniment A, se efectueaza un sir
de experiente Bernoulli si se observa frecventa relativa a evenimentului A. De cate ori
trebuie repetat evenimentul A astfel ncat cu o probabilitate de 0, 95 frecventa relativa sa
difere de p = P (A) cu 0, 01?
Fiind experiente Bernoulli, media m = p si dispersia D2 [X] = p(1 p). Evident ca
p(1 p) 1/4 pentru 0 p 1. Atunci rezulta
P (|fn (A) p|

D2 [X]
n2

1
.
4n2

Pentru = 0, 01 obtinem

1
4n2
Rezolvam si obtinem n = 50000. Aceasta evaluare s-a obtinut utilizand inegalitatea lui
Cebasev care da niste evaluari destul de grosiere. Vom obtine o alta evaluare utilizand
Sn
Teorema Moivre-Laplace. Deoarece fn (A) =
obtinem:
n
1 0, 95 =

P ({|

Sn np
Sn
p| < }) = P ({|
| < }) = 1 2(
n
n

n
)
p(1 p)

Aceasta probabilitate nu poate fi calculata deoarece p este necunoscut. Mai mult, deoarece
p(1 p)
1/4pentru 0
p
1, avem p(1 p)
1/2, deci (x) descreste cand
argumentul creste.

P (|fn (A) p| ) < 1 2(2 n)

Vrem ca probabilitatea de mai sus sa fie egalacu 0,95. Aceasta implica (2 n) =


(1 0, 95)/2 = 0, 25. Din tabele obtinem 2 n = 1, 95. Rezolvand, obtinem n =
(0, 98)2 /2 = 9506.


Probleme la limita

176

Exemplul 4.4.4 Sa se determine numarul minim de aruncari ale unei monede care sa
asigure cel putin cu o probabilitate de 0,9 ca diferenta dintre frecventa relativa obtinuta
si probabilitatea de aparitie a unei fete sa fie mai mica n valoare absoluta decat 0,2.
Folosind Teorema 4.2.2 obtinem,
1
P ({|fn (A) | < 0, 2}) > 0, 9.
2

(4.17)

Conform Exemplului 4.4.4 avem = 0, 2, = 1 0, 9 = 0, 1 si deci


n>

1
1
=
= 62, 5, n > 63.
2
4
4 0, 1 (0, 2)2

Cel putin 63 de aruncari asigura


P ({|

S63 1
| < 0, 2}) > 0, 9.
63
2

Putem determina intervalul n care variaza frecventa relativa astfel ncat (4.17) sa fie
satisfacuta si deci frecventa absoluta pentru un anumit n 63,
|

k 1
k
| < 0, 2 0, 3 < < 0, 7 n 0, 3 < k < n 0, 7.
n 2
n

Daca n = 63 rezulta 18 < k < 44. Deci din 63 aruncari, numarul aruncarilor reusite este
cuprins ntre 18 si 44, atunci (4.17) este satisfacuta, adica am determinat intervalul n
care se situeaza numarul cazurilor favorabile aparitiei unei aceleiasi fete, aceasta avand
loc cu probabilitatea de cel putin 0,9.
Exemplul 4.4.5 Un zar se arunca de 1200 de ori. Sa se determine probabilitatea minima
ca numarul de aparitii ale fetei cu i puncte, i fixat, sa fie cuprins ntre 150 si 250. Dar
ntre 100 si 250 ?
Constatam ca p =
|

1
si n = 1200. Deci
6
1
1
k
1
k
| <
<
< +
1200 6
6
1200
6

echivalent cu
200 1200 < k < 200 + 1200 .
Sa cercetam daca aceasta situatie este compatibila cu datele problemei, adica daca sistemul
200 1200 = 150,
200 + 1200 = 250,
are solutie. Se obtine =

1
50
= . n al doilea caz, sistemul devine
1200
24
200 1200 = 100,
200 + 1200 = 250,


Probleme la limita

177

1
1
1
si este incompatibil, obtinand, din fiecare ecuatie, 1 =
si 2 =
. Pentru 1 =
12
24
12
1
obtinem intervalul (150, 250). Cum
obtinem intervalul (100, 300), iar pentru 2 =
24
P ({100 <
alegem =

Sn
Sn
1
< 250}) > P ({150 <
< 250}) > 1 ,
1200
1200
24

1
si deci
24
=

1
1
= 1
= 0.12.
2
4 n
4 242 1200

Deci, cu probabilitatea de cel putin 0,88, numarul de aparitii ale unei fete a zarului cu
i puncte este n intervalul (150, 250) daca aruncam zarul de 1200 ori. Pe de alta parte,
tinand seama de regula celor 3 de la repartitia normala,
Sn np
P ({3 <
npq

3}) = 0, 9973,

ceea ce nseamna ca probabilitatea ca numarul de aparitii ale unei fete a zarului sa fie n
intervalul (161, 239) este de 0.9973. Se poate calcula exact probabilitatea ca numarul de

aparitii ale unei fete sa fie cuprins ntre 100 si 250. Deorece np = 200 si npq = 12, 91
obtinem
P ({100 < Sn < 250}) = P ({100 < Sn np < 50}) =
= P ({

100
Sn np
50
<
<
}) =
12, 91
npq
12, 91

Sn np
< 3, 873}) = F (3, 873) F (7, 75)
= P ({7, 75 <
npq
si tinand seama de Relatia (3.14) din Capitolul 3,
P ({100 < Sn < 250}) = (3, 873) + (7, 75) =
= 0, 499946 + 0, 499997 = 0, 9999943,
rezultat n concordanta cu cel anterior.
Exemplul 4.4.6 Sa se calculeze probabilitatea opririi simultane a trei masini din zece
care lucreaza independent ntr-o fabrica n cazul n care probabilitatea defectarii unei
masini este p = 0, 2.
Numarul de masini defecte este o variabila aleatoare cu repartitie binomiala:
X:

k
Cnk (0, 2)k (0, 8)10k

, k = 1, 10

Se cere probabilitatea
3
P10,3 = C10
(0, 2)3 (0, 8)7 = 0, 2.


Probleme la limita

178
Folosind Teorema 4.3.1 putem aproxima
x10,3 =

10
3

10 12 12

= 0, 21

si obtinem
3
(0, 2)3 (0, 8)7
C10

1
2 12 12 10

(0,21)2
2

0, 246.

Diferenta 0,246-0,2=0,046 este considerata ca o aproximatie cu eroare mare. (Am vazut


ca aplicam formula daca np 5 si nq 5, dar n cazul acesta np = 10 0, 2 = 2 < 5.)
Daca am avea 25 de masini si calculam probabilitatea opririi simultane a opt masini
(observam ca np = 25 0, 2 = 5 si nq = 25 0.8 = 20 > 5), atunci
8
(0, 2)8 (0, 8)17 = 0, 06234.
P25,8 = C25

Conform Teoremei 4.3.1


x25,8 =
8
C25
(0, 2)8 (0, 8)17

8 25 0, 2
= 1, 5,
25 0, 2 0, 8

(1,5)2
1
e 2 = 0, 06475.
2 0, 2 0, 8

Diferenta
0, 06475 0, 06234 = 0, 00241
de ordinul miimilor este considerata satisfacatoare din punct de vedere practic.
Exemplul 4.4.7 O centrala electrica trebuie sa deserveasca o retea de 10000 de becuri
medii. Probabilitatea aprinderii unui bec ntr-o noapte de iarna, care constituie perioada
de varf a consumului de energie electrica, este de 0,7. Sa se faca analiza economica
necesara proiectarii centralei.
Pentru a determina capacitatea centralei pot fi adoptate criterii diferite:
sa construim centrala astfel ncat n orice moment cele 10000 de becuri sa functioneze;
sa se determine capacitatea centralei astfel ncat cu o probabilitate suficient de mare,
consumul obisnuit sa fie asigurat cu energia necesara bunei functionari.
Fie X o variabila aleatoare care ia ca valori numarul de becuri care pot fi aprinse ntr-o
noapte. Aceasta variabila aleatoare are o repartitie binomiala cu
n = 10000, p = 0, 7, M [X] = np = 7000,
D2 [X] = npq = 2100, D[X] = 45, 83 46,


Probleme la limita

179

P ({|X M [X]|

k 46})

2100
1
k2 1
=
1

=
.
k 2 2100
k2
k2

Pentru k = 2 obtinem

3
= 0, 75.
4
Daca centrala se construieste pentru o capacitate de 7092 becuri atunci, cu o probabilitate
de cel putin 0,75, functionarea ei este normala. Rezultatul nu este convenabil. La fel,
P ({|X 700|

k = 3, P ({|X 7000|

})

138})

8
= 0, 89;
9

15
= 0, 94.
16
Daca construim centrala pentru o capacitate de 7184 becuri medii atunci, cu probabilitatea
de cel putin 0,94, functionarea va fi normala.
Sa determinam capacitatea centralei astfel ncat cu o probabilitate de
0,99 functionarea sa fie normala. Folosim Teorema Moivre-Laplace cu a = .
k = 4, P ({|X 7000|

Sn np
P ({
npq

184})

b}) = 0, 999 = F (b) = 0, 5 + (b)

0, 5 + (b) = 0, 999 (b) = 0, 499 b = 3, 09


S 10000 0, 7
n
10000 0, 7 0, 3

3, 09

Sn = 7142 se numeste coeficient de simultaneitate si este indicat sa se faca constructia


centralei pentru el. Daca centrala se construieste pentru 10000 de becuri medii, cu o
probabilitate de 0.99, un numar de 10000-7142=2858 becuri raman nefolosite.
Exemplul 4.4.8 O fabrica are n stoc 1660 tone dintr-o materie prima. stiind ca zilnic se
consuma n medie 13,33 t cu abaterea 1,2 t, cu ce probabilitate aceasta cantitate ajunge
pentru 4 luni.
Notam cu Xi variabila aleatoare care ia ca valori consumul zilei i, i = 1, 120. Avem
M [Xi ] = 13, 33, D[Xi ] = 1, 2.
120

In 120 de zile se consuma X =

Xi . Ne aflam n cazul general n care nu se cunoaste


i1

repartitia variabilei aleatoare Xi . Sa determinam P ({X < 1660}).

M [X] = nm = 120 13, 33 = 1599, 6, D[X] = n 2 = n = 13, 1,


P ({X < 1660}) = P ({

X 1599, 6
1660 1599, 6
<
}) = 0, 5 + (4, 6) = 0, 999.
13, 1
13, 1

Se poate deci presupune ca aproape sigur cantitatea de materie prima este suficienta.


Probleme la limita

180

Exemplul 4.4.9 O sursa radioactiva este modelata dupa o lege Poisson si emite 30
particule/ora. Care este probabilitatea ca n 10 minute sa fie emise cel mult 10 particule
?
10

Notam X =

Xi , unde Xi sunt variabile aleatoare repartizate Poisson si indepeni=1

dente. Din conditiile


10

= M [X] =

M [Xi ] = nM [Xi ]
i=1

si deci M [Xi ] =

si
n

10

= D2 [X] =

D2 [Xi ] = nD2 [Xi ],


i=1

, unde este parametrul repartitiei Poisson ce trebuie determinat din


n
1
conditia = 30 6 = 5 particule/10 minute. Dupa (4.16)
adica D2 [Xi ] =

P ({X

X n n
10}) = P ({
n n

10 5
10
}) = 0, 5 + ( ) = 0, 98713.
5

Exemplul 4.4.10 Fie {Xn }nIN un sir de variabile aleatoare independente

0
n
n
1
2 1
, P ({X1 = 0}) = 1, n = 2, 3 . . . .
Xn :
1
n
n n
Sa se arate ca {Xn }nIN se supune Legii numerelor mari.
Verificam conditiile Teoremei 4.2.1.
M [Xn ] = 0, D2 [Xn ] = M [Xn2 ] (M [Xn ])2 ,
0

Xn2 :

2
1
n

1
2
n

M [Xn2 ] = 2,

D2 [Xn ] = 2

prob

Conform Teoremei 4.2.1, {Xn } 0. Daca notam


1
Yn =
n

Xk ,
k=1

atunci
1
M [Yn ] = 0, D [Yn ] = 2
n

D2 [Xk ] =

k=1

2(n 1)
1
2n 1
+ 2 =
0
2
n
n
n2

deci
lim P ({|Yn M [Yn ]| < }) = 1

prob

{Yn } 0.


Probleme la limita

4.5

181

Leg
atura dintre convergenta sirurilor functiilor
de repartitie si convergenta sirurilor functiilor caracteristice

Teorema 4.5.1 Fie Fn un sir de functii de repartitie si F o functie de repartitie. Daca


Fn F n orice punct de continuitate a lui F , rezult
a ca pentru orice f : IR IR
continu
a si marginit
a are loc
lim

f (x)dFn (x) =

f (x)dF (x)

IR

IR

Demonstratie. Fie M = sup |f (x)| si fie a, b puncte de continuitate ale lui F ncat
xIR

F (a)

si 1 F (b)

Deoarece pe un interval nchis [a, b] orice functie continua este si uniform continua, alegem
punctele de continuitate ale lui F , xk cu 0 k s astfel ncat
a = x0 < x 1 < . . . < x s = b
si
|f (x) f (xk )|

, x [xk , xk+1 ], 0

s 1.

Introducem functia auxiliara de salturi f definita astfel:


f (xk ),
0,

f (x) =

daca
daca

xk x < xk+1 ,
x < x 0 , x xs ,

s 1.

Are loc, evident,


|f (x) f (x)| < , x [a, b].
Pentru orice functie de repartitie G are loc
s1

f (x)dg(x) =
IR

Deoarece n x = xk , 0

f (xk )(G(xk+1 ) G(xk )).


k=0

s, F este continua, lim Fn (x) = F (x) si deci


n

s1

f (x)dFn (x) = lim

lim

IR

f (xk )(Fn (xk+1 ) F (xk )) =


k=0

s1

f (xk )(F (xk+1 ) F (xk )) =

f (x)dF (x),
IR

k=0

deci
f (x)dFn (x) =

lim

IR

f dF (x).
IR

(4.18)


Probleme la limita

182
De asemenea avem
a

|f (x) f (x)|dF (x) =


IR

|f (x) f (x)|dF (x)+

|f (x) f (x)|dF (x) +


a

|f (x) f (x)|dF (x)


b

|f (x)|dF (x) +

|f (x) f (x)|dF (x) +


a

|f (x)|dF (x)
b

dF (x) +

|f (x) f (x)|dF (x) + M


a

dF (x) =
b

= M F (a) + (F (b) F (a)) + M (1 F (b)).


Daca tinem seama de (4.18), gasim
|f (x) f (x)|dF (x)

(2M + 1).

(4.19)

IR

Din convergenta n repartitie, pentru n suficient de mare, avem


|Fn (a) F (a)| <

si |Fn (b) F (b)| <


.
2M
2M

Facand acelasi rationament ca mai sus gasim evaluarea


|f (x) f (x)|dFn (x)

(2M + 1).

(4.20)

IR

Din (4.18), (4.19) si (4.20) avem


|

f (x)dFn (x)
IR

f (x)dF (x)|
IR

|f (x) f (x)|dFn (x) +


IR

f (x)|dF (x) + |

f (x)dFn (x)
IR

|f (x)
IR

f (x)dF (x)|

(4M + 3).

IR

Deoarece este arbitrar, rezulta teorema.


Mentionam ca si implicatia inversa este adevarata.
Teorema 4.5.2 Daca Fn este un sir de functii de repartitie, atunci exista un subsir Fnk
convergent la o functie nedescresc
atoare n punctele sale de continuitate.
Demonstratie. Fie (xn )nIN o multime numarabila arbitrara de numere reale, densa n
IR, de exemplu multimea numerelor rationale. Deoarece sirul {Fn (x1 }nIN [0, 1] (fiind
marginit), din teorema lui Bolzano- Weierstrass exista un subsir convergent {Fn1 (x1 }nIN .
Analog, din sirul marginit {Fn2 (x2 )} extragem un subsir convergent {Fn2 (x2 )}nIN etc.
Rezulta ca sirul diagonal {Fnn }nIN ) (cu exceptia eventual a unui numar finit de termeni) este continut n toate subsirurile {Fnk }nIN ,kIN si deci converge , oricare ar fi
x Q. Introducem
def
F (x) = lim Fnk (x).
k


Probleme la limita

183

F este, evident, nedescrescatoare si marginita pe Q si poate fi extinsa la IR cu pastrarea


proprietatilor
F (x) = sup F (y).
y<x,yQ

Sa demonstram ca {Fnk } F n punctele sale de continuitate. Fie x0 un punct de


continuitate a lui F si sa alegem > 0 ncat pentru |x x0 | < sa avem
|F (x) F (x0 )| < .
Introducem functiile auxiliare

1,
daca x x0 ,

x x
0
, daca x0 x x0 ,
f1 (x) =

0,
daca x x0 ,

1,
daca x x0 ,

x0 x
1
, daca x0 x x0 + ,
f2 (x) =

0,
daca x x0 + .
Avem, evident,
x0

f1 (x)dF (x)
IR

dF (x) = F (x0 )

F (x0 ) ,

dF (x) = F (x0 + )

F (x0 ) + ,

x0 +

f2 (x)dF (x)

IR

si analog pentru Fnk


x
IR

f1 (x)dFnk (x)

dFnk (x) = Fnk (x0 ),

x
IR

f2 (x)dFnk (x)

dFnk (x) = Fnk (x0 ).

Pentru n suficient de mare, conform teoremei 4.4.1,


|
IR

|
IR

f1 (x)dFnk (x)
f2 (x)dFnk (x)

f1 (x)dF (x)| < ,


IR

f2 (x)dF (x)| < .


IR

Din ultimele sase relatii deducem


F (x0 ) 2

Fnk (x0 )

F (x0 ) + 2.

Deoarece > 0 este arbitrara rezulta


lim Fn (x0 ) = F (x0 ).


Probleme la limita

184

Teorema 4.5.3 Daca sirul {Fn } de functii de repartitie converge n repartitie catre functia F n toate punctele de continuitate ale lui F , atunci sirul {n } al functiilor caracteristice corespunz
atoare converge (uniform pe orice interval marginit) la functia caracteristic
a
corespunz
atoare lui F .
Demonstratie. Deoarece
eitx dFn (x) si (t) =

n (t) =
IR

eitx dF (x)
IR

si functia eitx este continua si marginita pe IR. Conform Teoremei 4.5.2 rezulta
lim n (t) = (t)

(se poate demonstra si convergenta uniforma).


Teorema 4.5.4 Daca sirul {n }nIN de functii caracteristice converge pentru orice t IR
atoare conla continu
a pe IR, atunci sirul {Fn }nN de functii de repartitie corespunz
verge catre o functie de repartitie F ; n plus, este functia caracteristic
a corespunz
atoare
lui F .
Demonstratie. Din Teorema 4.5.1 exista un subsir {Fnk }kIN care converge la o functie
F nedescrescatoare, continua la stanga n toate punctele de continuitate ale lui F . Sa
demonstram ca F este o functie de repartitie. Presupunem, prin absurd, ca
F () > 0 F (+) < 1
si
= F (+) F () < 1.
Fie > 0 ales arbitrar astfel ncat < 1 . Deoarece n si n (0) = 1, rezulta ca
(0) = 1 si deoarece este continua pe IR putem lua > 0 suficient de mic ncat

1
|
2
De asemenea putem alege x0 >

(t)dt| > 1

>+ .
2
2

(4.21)

daca K > 0 suficient de mare, ncat

k = Fnk (x0 ) Fnk (x0 ) =

dFnk (x) < + , daca k > K


4
|x|<x0

ceea ce este posibil deoarece Fnk este o functie de repartitie. Deoarece nk este o functie
caracteristica,

[
eitx dt]dF (x).
(t)dt =

Dar |

eitx dt|

nk

IR

nk

2 deoarece |eitx | = 1, iar pe de alta parte, calculand efectiv aceasta

integrala,

1
1
2
eitx = eitx | = [ei x ei x ] = sin( x).
ix
ix
x


Probleme la limita

185

Deci, pentru |x| > x0 , tinand seama de faptul ca | sin( x)

1 avem

eitx dt <

Deci

nk x(t)dt|

|x| x0

2
.
x0

eitx dt]dFnk (x)|+

+|

[
x>x0

2
eitx dt]dFnk (x)| < 2 k + .
x0

Impartind prin 2
1
|
2

nk (t)dt| < k +

1
1

<+ +
<+ ,
x0
4 4
2

ceea ce contrazice (4.21). Din teorema 4.5.3,


lim

IR

eitx dFnk (x) =

eitx dF (x) = (t).


IR

Ramane sa demonstram ca {Fn } converge n repartitie catre F . Sa presupunem contrariul;


atunci exista un subsir {Fnk } care converge n repartitie catre F = F , dar F este
o functie de repartitie cu aceeasi functie caracteristica, deci din Teorema de unicitate
Cap.III, Teorema 3.5.4 rezulta F F .

4.6

Convergenta aproape sigur


a

Deoarece variabilele aleatoare sunt functii definite pe spatiul de selectie (cu proprietati
suplimentare) putem vorbi de covergenta punctuala a unui sir de variabile aleatoare
{Xn }nIN catre variabila aleatoare X, ntelegand prin aceasta ca sirul numeric de variabile
aleatoare {Xn (e)}nIN , e E converge catre X(e).
Definitia 4.6.1 Sirul de variabile aleatoare {Xn }nIN converge aproape sigur c
atre varia.s.
abila aleatoare X (notat {Xn }nIN X) daca multimea evenimentelor n care {Xn }nIN
converge punctual la X formeaz
a un eveniment de probabilitate 1,
P ({Xn X}) = 1,

(4.22)

echivalent cu
P ({Xn X}) = 0.
Observatia 4.6.1 Convergenta aproape sigura se mai numeste convergenta tare.
Teorema 4.6.1 Daca pentru orice r IN are loc

P ({|Xn X|
n=1
a.s.

atunci {Xn }nIN X.

1
}) <
r

(4.23)


Probleme la limita

186

Demonstratie. Fie

Arn

1
}
r

= {e E, |Xn X|

si

Bnr

Arn+k . Din faptul ca

=
k=1

P (Bnr )

P (Arn+k ) =
k=1

P ({|Xl X|
l=n+1

1
})
r

si cum seria din (4.23) este convergenta, rezulta ca restul seriei converge la zero si deci
lim P (Bnr ) = 0.

(4.24)

Fie B r = B 1

B2

B3

P (B r ) rezulta, conform (4.24) ca P (B) =

. . . si cum P (B)
r=1

0, unde de fapt B este multimea evenimentelor pentru care Xn nu converge la X.


prob

a.s.

Se poate demonstra ca daca {Xn }nIN X atunci {Xn }nIN X si deci


rep
{Xn }nIN X.
Un alt rezultat, datorat lui E. Borel, face parte din legea numerelor mari (forma tare)
si reformuleaza, ntr-o maniera ntarita, afirmatia continuta n teorema lui Bernoulli.
Teorema 4.6.2 (Borel) Fie A un eveniment care are probabilitatea de realizare p = P (A)
Sn
ntr-un sir de probe independente si fie
frecventa relativ
a de realizare a evenimentului
n
A din n probe. Atunci are loc convergenta aproape sigura a sirului frecventelor relative
Sn
catre p.
n
Sn a.s.
p.
n
Demonstratie. Conform Teoremei 4.5.1 este suficient sa aratam ca seria

P ({|
n=1

Sn
p|
n

1
})
r

(4.25)

este convergenta, oricare ar fi r IN . Pentru aceasta vom observa, ca si la inegalitatea


lui Cebasev, ca putem stabili urmatoarea inegalitate pentru orice variabila aleatoare X
pentru care exista M [(X M [X])4 ]
P ({|X M [X]|

4.7

})

1
M [(X M [X])4 ].
4

Convergenta n medie

Definitia 4.7.1 Sirul de variabile aleatoare {Xn }nIN converge n medie de ordinul r
c
atre variabila aleatoare X daca exista momente absolute M [|Xn |r ], n IN si M [|X|r ] si
dac
a
lim M [|Xn X|r ] = 0,
n

si scriem {Xn }nIN X


Probleme la limita

187

Teorema 4.7.1 Daca sirul de variabile aleatoare {Xn }nIN converge n medie de ordinul
r c
atre variabila aeatoare X atunci converge n probabilitate catre X.
Demonstrate. Folosim inegalitatea analoga inegalitatii lui Cebasev, dar pentru momentul
centrat de ordin r, Relatia (3.41):
P ({|Xn X|

})

M [|Xn X|r ]
r

rezulta ca deoarece are loc (4.22) atunci


lim P ({|Xn X|

}) = 0.

Observatie. Daca r = 2 convergenta n medie de ordinul doi se numeste convergent


a
n medie patratic
a.
Concluzie.
a.s.

{Xn }nIN X
prob
rep
= {Xn }nIN
r
X = {Xn }nIN X .
{Xn }nIN X


Probleme la limita

188

4.8

Probleme propuse

Problema 4.1 Se dau variabilele aleatoare independente X1 , X2 , . . . , Xn , . . ., unde Xn ia


valorile na, 0, na, a IR+ cu probabilitatile:
a) p1 = 1/2n2 , p2 = 1 1/n2 , p3 = 1/2n2 ,
b) p1 = 1/2n , p2 = 1 1/2n1 , p3 = 1/2n .
Satisfac aceste siruri {Xn }nIN legea numerelor mari?
Solutie. a)
na
0
na
Xn :
, n = 1, 2, . . . ,
2
2
1/2n 1 1/n 1/2n2
M [Xn ] = 0, M [X 2 ] = a2 , D2 [X] = M [X 2 ] = a2 < .
Sirul {Xn }nIN satisface legea numerelor mari, folosind Teorema lui Cebasev.
b)
na
0
na
Xn :
, n = 1, 2, . . . ,
1/2n 1 1/2n1 1/2n
M [Xn ] = 0, M [X 2 ] = n2 a2 /2n1 , D2 [X] = M [X 2 ] (M [X])2 = n2 a2 /2n1 < .
Intrucat D2 [Xn ] nu este constanta nu se poate aplica Teorema lui Cebasev. Se aplica
Teorema lui Hincin.
Problema 4.2 Fie sirul de variabile aleatoare independente {Xn }nnn . Xn ia valorile:
n, (n 1), . . . , 1, 0, 1, . . . , n 1, n cu probabilitatile:
P (|Xn | = k) =

1
2
1
1
1
, k = 1, n, P (Xn = 0) = 1 (1 + 3 + 3 + . . . + 3 ).
3
3k
3
2
3
n

Se aplica sirului {Xn }nnn legea numerelor mari?


Solutie. Tabloul de repartitie al variabilei aleatoare Xn este:
Xn :

n . . . 1
1
. . . 13 1 23 (1 +
3n3

1
23

0
+ 313 + . . . +

1
)
n3

1
3

1
32 3

...
...

n
1
3n3

M [Xn ] = 0, n = 1, n
n

D2 [Xn ] = M [Xn2 ] =

k2
k=1

1
2
1
2
=
<
(1 + ln n).
3k 3
3 k=1 k
3

Pentru majorare am utilizat egalitatea:


1+

1 1
1
+ + . . . + = ln n + C + n , lim n = 0
n
2 3
n

iar C este constanta lui Euler cu C 0.577. Vom aplica Teorema lui Markov:
n

D2 [Xi ]

1 2
D [ Xi ] =
n2
i=1

i=1

n2

<

1 2n
(1 + ln n),
n2 3


Probleme la limita

189
n

1 2
2
D [ Xi ] <
(1 + lnn) 0, n .
2
n
3n
i=1
Deci sirului {Xn }nIN i se poate aplica legea numerelor mari.
Problema 4.3 Se da sirul de variabile aletoare independente {Xn }nIN cu M [X] =
0, D2 [X] = na , a =const., a < 1. Se aplica sirului dat legea numerelor mari?
Indicatie. Se aplica Teorema lui Markov.

Problema
4.4

Se da sirul de variabile aleatoare {Xn }nIN independente: Xn ia


valorile n, 0, n cu probabilitatile 1/n, 1 2/n, 1/n respectiv. Se aplica acestui sir
legea numerelor mari?
Indicatie. Da, ntrucat se poate aplica teorema lui Cebasev. Trebuie verificata conditia
2
D [Xn ] < c.

Problema 4.5 Probabilitatea ca o dioda sa se defecteze nainte de 1000 ore de


functionare este de 0,45. Daca 1000 de diode sunt testate, care este probabilitatea ca
sa se defecteze un numar de diode cuprins ntre 4450 si 4515 nainte de a functiona 1000
de ore?
Indicatie. p = 0, 45, q = 0, 55, n = 104 , np = 4500, 2 = npq = 2475, a =
0, 4020, b = 0, 3015. Utilizand (4.12) si legatura cu functia lui Laplace, obtinem
P ({0, 4020

Sn 4500

2475

0, 3015}) = (0, 3015) + (0, 4020) = 0, 275.

Problema 4.6 Probabiliatea ca un rezistor sa nu fie la limita de toleranta este 0,1.


S-au cumpaarat 1000 de rezistoare. Care este probabilitatea ca mai mult de 100 rezistoare
sa nu fie la limita de toleranta?
Sn 100

Indicatie. P ({1, 0541


94, 9}) = 0, 0778
90
Problema 4.7 In cazul unui semnal luminos dirijat spre un detector fotoelectric,
numarul k de electroni emisi urmeaza o repartitie Poisson cu media = 150. Un semnal
este detectat daca emite mai mult de 140 de electroni. Care este probabilitatea ca semnalul
sa fie pierdut?
140

(150)k ek
. Fie X variabila aleatoare care
k!
k=0
ia ca valori numarul de electroni emisi. Calculam
Indicatie. Aceasta probabilitate este p =

P ({X

X 150
140}) = P ({
150

140 150

}) = 0, 5 (0, 8165) = 0, 209.


150

Problema 4.8 Presupunem ca numarul particulelor emise de o masa n t secunde este


o variabila aleatoare Poisson cu media t. Folosind inegalitatea lui Cebasev sa se obtina
o margine pentru probabilitatea ca |N (t)/t | sa nu depaseasca .
Indicatie. P (|N (t)/t | ) 2 t

190

Probleme la limita

Problema 4.9 Numarul mesajelor care sosesc la un canal de comunicatie este o


variabila aleatoare Poisson cu media de 10 mesaje/secunda. Folosind teorema limita
centrala sa se estimeze probabilitatea ca mai mult de 650 de mesaje sa ajunga ntr-un
minut.
Indicatie. Se utilizeaza Exercitiul 4.4.9.

Capitolul 5
Procese stochastice
In studiul unor probleme fizice sau tehnologice apar fenomene care se desfasoara n
timp si care se numesc procese. Sa dam cateva exemple.
1. In modelul atomului de hidrogen, datorat lui Bohr, electronul se poate plasa pe
una din orbitele admisibile; la un moment dat t, definim variabila aleatoare X(t), care ia
valoarea i, daca electronul se gaseste pe orbita i.
2. Numarul de impulsuri care se produc n intervalul (0, t) la o centrala telefonica este
o variabila aleatoare pe care o notam X(t).
3. Daca miscarea unei particule depinde de circumstante ntamplatoare, de exemplu
de ciocnirea cu alte particule, atunci n fiecare moment t, viteza V (t) sau pozitia X(t)
sunt variabile aleatoare.
4. Un semnal aleator este o unda electrica, sonora etc. ce traverseaza un anumit mediu
la un moment dat si pe care l notam cu X(t). Un semnal poate fi conditional determinist
daca se cunoaste expresia analitica a undei; de exemplu X(t) = sin(t + ) , unde este
o variabila aleatoare.
In fiecare din exemplele precedente se pune n evidenta o familie de variabile aleatoare
{X(t)}, cu t T, T IR, care defineste un proces stochastic.

5.1

Lanturi Markov

Fie {E, K, P } un camp borelian de probabilitate.


Definitia 5.1.1 Familia de variabile aleatoare X(t) : E IR, unde t T IR, se
numeste proces stochastic. Daca T = IN procesul se numeste lant.
Ne ocupam n detaliu de lanturi cu un numar finit de valori. Fie S o multime finita,
ale carei elemente le numim stari, numerotate ntr-un mod bine-definit si care reprezinta
multimea tuturor valorilor pe care le pot lua variabilele aleatoare X(n). Vom nota X(n) =
Xn .
Presupunem cunoscute probabilitatile
pi = P ({X0 = i}), i S,
191

192

Procese stochastice

pe care le vom numi probabilit


ati initiale ale lantului. Evident
pi = 1.
iS

Definitia 5.1.2 Lantul {Xn }, n IN se numeste lant Markov dac


a are loc
P ({Xn+1 = in+1 }|{Xn = in , . . . , X0 = i0 }) = P ({Xn+1 = in+1 }|{Xn = in }).

(5.1)

Egalitatea (5.1) este cunoscuta sub numele de proprietatea Markov si se interpreteaza


intuitiv prin aceea ca lantul pastreaza asupra trecutului amintirea cea mai recenta, deci
trecutul este n ntregime rezumat n starea din ultimul moment cunoscut.
Se poate demonstra echivalenta dintre conditia (5.1) si relatia :
t0 < t1 < . . . tn < tn+1 IR,
P ({Xtn+1 = in+1 }|{Xtn = in , . . . , Xt0 = i0 }) = P ({Xtn+1 = in+1 }|{Xtn = in }).

(5.2)

Relatia (5.2) corespunde situatiei n care schimbarea starilor nu se face la momente echidistante de timp.
Propozitia 5.1.1 Dac
a {Xn }, n IN este un lant Markov, are loc urmatoarea formula
de calcul:
n

P ({Xn = in , . . . , X0 = i0 }) = pi0

P ({Xt = it }|{Xt1 = it1 }).

(5.3)

t=1

Demonstratie. Vom folosi probabilitatea unei intersectii.


P ({Xn = in , . . . , X0 = i0 }) = P ({X0 = i0 } {X1 = i1 } . . . {Xn = in }) =
= P ({X0 = i0 })P ({X1 = i1 }|{X0 = i0 })P ({X2 = i2 }|{X1 = i1 , X0 = i0 }) . . .
P ({Xn = in }|{Xn1 = in1 , . . . , X0 = i0 }) =
= P ({X0 = i0 })P ({X1 = i1 }|{X0 = i0 })P ({X2 = i2 }|{X1 = i1 }) . . .
. . . P ({Xn = in }|{Xn1 = in1 }).
Ultima relatie s-a obtinut folosind proprietatea Markov; scrisa condensat este de fapt
relatia (5.3).
Definitia 5.1.3 Probabilit
atile date de formula
p(t, it1 , it ) = P ({Xt = it }|{Xt1 = it1 }), t = 1, . . . n,
se numesc probabilitati de trecere.
Definitia 5.1.4 Un lant Markov se numeste omogen dac
a p(t, it1 , it ) nu depinde explicit
de t, deci are loc
p(t, it1 , it ) = p(it1 , it )
caz contrar, procesul se numeste neomogen.
In

Procese stochastice

193

Vom nota aceste probabilitati cu pit1 ,it . Pentru un lant Markov omogen, relatia (5.3)
devine
n

P ({Xt = it , . . . X0 = i0 }) = pi0

pit1 ,it .

(5.4)

t=1

In cazul unui lant Markov omogen, vom introduce notatia


pij = P ({Xt+1 = j}|{Xt = i}), i, j S.

(5.5)

Matricea P = (pi,j ) se numeste matrice de trecere.


Propozitia 5.1.2 Matricea de trecere a unui lant Markov omogen satisface relatiile :

i, j S
pij 0,
.
pij = 1, i S

jS

Demonstratie. Prima afirmatie este evidenta. Pentru a doua sa observam ca evenimentul


sigur E =
{Xt+1 = j} si ca
jS

1=P

{Xt+1 = j} |{Xt = i}
jS

P ({Xt+1 = j}|{Xt = i}) =


jS

pij .
jS

O matrice ce satisface aceste doua proprietati se numeste stochastic


a. Se poate usor
demonstra ca produsul a doua matrice stochastice este o matrice stochastica. Un lant
Markov este caracterizat de probabilitatile initiale si de trecere. Am vazut ca daca se
cunosc probabilitatile initiale si de trecere se pot determina pentru orice n, probabilitatile
care caracterizeaza un lant stochastic, adica
P ({Xt = it , Xt1 = it1 , . . . , X0 = i0 }), t = 0, 1, . . . , n.
Reciproc, se poate demonstra ca daca pi , i S, este un sir cu proprietatile
pi

0 ,

pi = 1
iS

si (pij ), i, j S, este o matrice cu proprietatile :


pij

0 ,

pij = 1,
jS

atunci exista un corp borelian si un lant Markov omogen, cu multimea starilor S, cu pi


probabilitati initiale si pij probabilitati de trecere.

194

Procese stochastice

Exemplul 5.1.1 Doua urne au urmatoarea componenta :


Ua are 4 bile albe si 6 bile negre
Un are 5 bile albe si 5 bile negre
Alegem la ntamplare o urna si din ea o bila, pe care o punem napoi n urna; daca bila este
alba extragem urmatoarea bila din Ua , iar daca e neagra din Un si continuam procedeul.
Este un exemplu de lant Markov omogen, cu probabilitatile initiale p1 = p2 = 12 , deoarece
alegerea urnelor este egal probabila; definim starile
S1 se extrage o bila din urna Ua
S2 se extrage o bila din urna Un
si ilustram prin urmatoarea diagrama:
Matricea de trecere este
P =

0, 4 0, 6
0, 5 0, 5

Exemplul 5.1.2 Intr-o urna sunt a bile albe si b bile negre. Se efectueaza un sir infinit
de extrageri astfel ncat dupa fiecare extragere se pun napoi doua bile de aceeasi culoare
cu cea extrasa. Fie Xk numarul de bile la momentul k. Definim probabilitatile de trecere

, daca j = i,

a+b+k

i
P ({Xk+1 = j}|{Xk = i}) =
,
daca j = i + 1,

a+b+k

0,
daca j = i, i + 1.
Numarul de bile din urna la momentul k+1 depinde numai de numarul de bile din urna
aflate la momentul k, nefiind necesar ntreg istoricul. Probabilitatile de trecere depind
efectiv de momentul n care s-a desfasurat extractia, deci e un lant Markov neomogen.
Dat un lant Markov omogen, ne propunem sa determinam probabilitatile
P ({Xn+m = j}|{Xm = i}), n IN ,
(n)

pe care le numim probabilit


ati de trecere dupa n pasi. Definim prin recurenta pij , dupa
formulele
(1)
pij
= pij
(n+1)
(n) (1)
(5.6)
=
pik pkj n IN .
pij
kS

Sub forma matriceala, relatiile (5.6) devin:


P (n) = P . . . P = P n .

Procese stochastice

195

Propozitia 5.1.3 Pentru orice n IN are loc


(n)

pij = P ({Xn+m = j}|{Xm = i}), m IN .

(5.7)

Demonstratie. Vom demonstra prin inductie. Observam ca pentru n = 1, gasim definitia


probabilitatilor de trecere date de (5.5). Presupunem ca (5.7) are loc pentru n IN si sa
determinam
P ({Xn+1+m = j}|{Xm = i}) =

P ({Xn+m+1 = j, Xn+m = k}|{Xm = i}),


kS

aceasta deoarece {Xn+m = k}, k S, formeaza un sistem complet de evenimente si are


loc formula probabilitatii totale (vezi Exemplul 6.6, Capitolul 1). Aplicand n continuare
formula probabilitatii conditionate si proprietatea Markov, ultimul membru este
P ({Xn+1+m = j, Xn+m = k}|{Xm = i}) =
kS

=
kS

P ({Xn+m+1 = j} {Xn+m = k} {Xm = i})


=
P ({Xm = i})

=
kS

P ({Xn+m+1 = j} {Xn+m = k} {Xm = i})

P ({Xn+m = k} {Xm = i})


P ({Xn+m = k} {Xm = i})
=
P ({Xm = i})

P ({Xn+m+1 = j}|{Xn+m = k, Xm = i})P ({Xn+m = k}|{Xm = i})

=
kS

P ({Xn+m+1 = j}|{Xn+m = k})P ({Xn+m = k}|{Xm = i}) =


kS

p1kj P ({Xn+m = k}|{Xm = i}).

=
kS

Folosind ipoteza inductiva ultimul membru este


(n) (1)

(n+1)

pik pkj = pij

kS

Deci afirmatia este dovedita.


Daca ntr-un lant Markov omogen se cunosc probabilitatile initiale si matricea de
trecere, atunci probabilitatea ca la momentul n IN sistemul sa se afle n starea i, i S,
probabilitate pe care o vom nota pi (n), este data de formula
pi (n) =

pj (n 1)pji .
jS

(5.8)

196

Procese stochastice

Intr-adevar, la momentul n
pi (n) = P ({Xn = i}) = P

{Xn = i}

{Xn1 = j}

jS

({Xn = i} {Xn1 = j})

=P

jS

P ({Xn1 = j})P ({Xn = i}|{Xn1 = j})


jS

pj (n 1)pji .
jS

Exemplul 5.1.3 Un calculator poate fi privit ca un sistem S care se poate afla ntr-una
din urmatoarele stari:
S1 calculatorul functioneaza normal;
S2 calculatorul prezinta unele dereglari, dar poate executa programe;
S3 calculatorul prezinta unele dereglari si rezolva un numar limitat de probleme;
S4 calculatorul nu functioneaza.
La momentul initial calculatorul functioneaza, deci se afla n starea S1 cu probabilitatea 1 si se poate presupune ca el trece n celelalte stari cu probabilitatile indicate de
urmatoarea schema
Deci matricea de trecere este

0, 3 0, 4 0, 1 0, 2
0 0, 2 0, 5 0, 3
.
P =
0
0 0, 4 0, 6
0
0
0
1

Sa determinam probabilitatile starilor la momentul n = 2. Deoarece la momentul initial


calculatorul functioneaza, probabilitatile initiale sunt
p1 = 1, p2 = p3 = p4 = 0.
Folosind (5.8) gasim
p1 (1) = 0, 3; p2 (1) = 0, 4; p3 (1) = 0, 1; p4 (1) = 0, 2
si
p1 (2) = 0, 09; p2 (2) = 0, 2; p3 (2) = 0, 27; p4 (2) = 0, 44.
Propozitia 5.1.4 Pentru orice m, n IN are loc
(m+n)

pij

(n) (m)

pik pkj .
kS

(5.9)

Procese stochastice

197

Demonstratie. Demonstram prin inductie dupa m. Pentru m = 1 regasim (5.7). Inlocuind


m cu m + 1, sa evaluam
(n+m+1)

pij

(n+m) (1)
pkj

pik
kS
(n)

lS

pkj =

lS

(m) (1)

(n) (m+1)

plk pkj =
kS

(1)

pil plk
kS

pil

(n) (m)

pil plj

lS

Relatia (5.9) se numeste relatia Chapman-Kolmogorov. Matriceal ea se scrie


P (m+n) = P (m) P (n) .
Cu ajutorul matricei de trecere putem exprima probabilitatea aparitiei unor stari la
momente nesuccesive.
Exemplul 5.1.4 Daca avem un lant Markov omogen cu matricea de trecere P , sa determinam
P ({X10 = l, X8 = k, X5 = j}|{X1 = i}).
Folosind formula probabilitatii unei intersectii si proprietatea Markov, avem
P ({X10 = l, X8 = k, X5 = j, X1 = i})
=
P ({X1 = i})
=

P ({X1 = i})P ({X5 = j}|{X1 = i})P ({X8 = k}|{X5 = j})P ({X10 = l}|{X8 = k})
=
P ({X1 = i})
(4) (3) (2)

= pij pjk pkl .

198

Procese stochastice

Exemple de lanturi Markov omogene.


Exemplul 5.1.5 Mers la ntamplare pe segmentul [0, l] [11].
a. cu bariere absorbante; o particula se deplaseaza pe o axa orientata ocupand doar
punctele de abscisa 0, 1, . . . l. La fiecare moment particula ramane imobila daca se afla
ntr-unul din punctele 0 sau l si face un pas la dreapta cu probabilitatea p sau la stanga
cu probabilitatea q. Matricea de trecere este

1 0 0 ... 0 0 0
q
0 p ... 0 0 0

P =
... ... ... ... ... ... ... .
0 0 0 ... q
0 p
0 0 0 ... 0 0 1
b. cu bariere reflectante; daca particula ajunge
respectiv l 1. Matricea de trecere este

0 1 0 ... 0
q
0 p ... 0

P = ... ... ... ... ...


0 0 0 ... q
0 0 0 ... 0

n 0 sau l, este reflectata n 1,


0
0
...
0
1

0
0
...
p
0

Exemplul 5.1.6 Un model din teoria asteptarii [11].


O statie de deservire poate servi clientii la momentele 0, 1, 2, . . .. Numarul de clienti
care sosesc n intervalul (n, n + 1) este o variabila aleatoare notata Xn . Presupunem ca
Xn sunt variabile aleatoare independente si identic repartizate
Xn :

k
pk

,
k=0

pk = 1
k=0

si ca exista un loc de asteptare pentru cel mult m clienti, numar n care se include si
clientul care este servit. Clientii care ajung n statie si gasesc m clienti, pleaca fara a fi
serviti.
Fie Yn numarul de clienti prezenti la momentul n, n care se include si clientul care este
servit. Yn este un lant Markov cu starile 0, 1, . . . m. Yn+1 este egal cu numarul clientilor
la momentul n, mai putin cel servit la momentul n (daca exista) plus numarul clientilor
care sosesc n intervalul (n, n + 1), daca rezultatul nu depaseste m si este egal cu m n caz
contrar. Deci

1 Yn m, 0 Xn m + 1 Yn ,
Yn 1 + Xn , daca
Xn ,
daca
Yn = 0,
0 Xn m 1,
Yn+1 =

m,
n rest.

Procese stochastice

199

Deoarece Yn+1 depinde doar de Yn , iar variabilele aleatoare Xn si Yn sunt independente,


rezulta ca Yn este un lant Markov. Sa determinam matricea de trecere. Notam cu pm =
pm + pm1 + . . .
p0j = P ({Yn+1 = j}|{Yn = 0)}
=

P ({Xn = j}) = pj ,
P ({Xn m}) = pm ,

daca
daca

0 j m 1,
j = m;

pij = P ({Yn+1 = j}|{Yn = i}) =

daca
i1 j
P ({Xn = j + 1 i}) = pji+1 ,
P ({Xn m + 1 i}) = pm+1i , daca
j = m,
=

0,
n rest.
Rezulta matricea

p0 p1 p2 . . . pm1 pm
p0 p1 p2 . . . pm1 pm

0 p0 p1 . . . pm2 pm1

.
.. .. .. ..
..
..
. . . .

.
.

0 0 0 . . . p1
p2
0 0 0 . . . p0
p1

m 1,

Exemplul 5.1.7 Un model din teoria stocurilor. [11]


O marfa este stocata pentru a putea satisface cererile ntamplatoare. Completarea
eventuala a stocului se face la momentele 0, 1, 2, . . ., iar cererea n intervalul (n, n + 1)
este o variabila aleatoare Xn , cu repartitia
Xn :

k
pk

,
k=0

pk = 1.
k=0

Presupunem ca Xn sunt independente. Daca la un moment oarecare n


0 cantitatea
de marfa stocata nu este mai mare decat m unitati, atunci se procura instantaneu o
cantitate de marfa care ridica stocul la M unitati, M IN . Daca nsa cantitatea de
marfa depaseste m unitati, atunci nu se ntreprinde nimic. Fie Yn stocul imediat nainte
de remprospatarea eventuala de la momentul n. Observam ca
Yn+1 =
Se arata ca Yn este un

pM
pM
.
.
.

pM

pm+1

pm+2
.
..
pM

max{Yn Xn , 0},
max{M Xn , 0},

daca
daca

m < Yn
Yn m.

lant Markov cu matricea de trecere


pM 1 . . . pM m
pM 1 . . . pM m
..
..
..
.
.
.
pM 1 . . . pM m
pm . . .
p1
pm+1 . . .
p2
..
..
..
.
.
.
pM 1 . . . pM m

M,

pM m1 pM m2 . . . p0
pM m1 pM m2 . . . p0
..
..
..
..

.
.
.
.

pM m1 pM m2 . . . p0
.
p0
0
... 0

p1
p0
... 0
..
..
..
..
.
.
.
.
pM m1 pM m2 . . . p0

200

Procese stochastice

(Matricea are primele m linii identice). S-a folosit notatia pl = pl + pl+1 + . . . , daca
m < l M.
Dat un lant Markov omogen ne intereseaza comportarea la limita a probabilitatilor de
(n)
trecere peste n pasi pij .
(n)

Definitia 5.1.5 Daca pentru orice i, j S sirul pij n IN este convergent independent
de i, lantul Xn se numeste ergodic.
Teorema 5.1.1 (Teorema de ergodicitate). Fie (Xn ), n IN , un lant Markov cu matricea de trecere P = (pij ), i, j S. Urmatoarele afirmatii sunt echivalente:
(s)
1. exista s IN si o stare j0 S astfel nc
at pij0 > 0 i S;
(n)

2. exista lim pij = p


, j S, i S.
j
n

Demonstratie.
2. = 1. Afirmatia este imediata; observam ca
(n)

p
j = lim

jS

pij = 1.
jS

Exista deci j0 S astfel ncat p


sirului
j0 > 0, deci de la un rang s termenii
(s)

pij0 > 0, i S.
1. = 2. Pentru orice j S sa consideram sirurile
(n)

pj
(n)

Aratam ca pj

(n)

= max pij ,
iS

(n)

pj(n) = min pij .


iS

(5.10)

este necrescator; ntr-adevar folosind (5.6)


(n+1)

pij

(1) (n)

(n)

pil plj

(1)

pj

lS

(n)

pil = pj

, i S,

lS

deci

(n+1)

pj

(n)

pj .

Analog rezulta ca pj(n) este nedescrescator, deci


p(n+1)
j
Deoarece cele doua siruri sunt si marginite (1
notam

p(n)
.
j
(n)

pj

p(n)
j

(n)

(n)
p
j = lim pj , pj = lim pj .
n

0) ele sunt convergente; sa

Procese stochastice

201

Ramane sa mai aratam ca p


= p
a demonstram ca
j . Pentru aceasta s
j
(n)

(n)

lim max |pij plj | = 0.

n i,lS

Folosind relatia (5.6), pentru n > s, cu s dat din ipoteza 1


(n)

(s) (ns)

pij =

pir prj

rS

rezulta

(n)

(n)

(s)

pij plj =

(s)

(ns)

(pir plr )prj

(ns)

rS

uil (r)prj

rS

(s)
pir

(s)
plr .

unde am introdus notatia uil =

Sa notam cu S + multimea acelor stari din S

pentru care uil (r) > 0 si cu S multimea acelor stari din S pentru care uil (r) < 0. Avem
evident S = S + S . Deoarece
(s)

(s)

pir =

plr = 1,

rS

rS

rezulta ca
uil (r) =
rS

uil (r) +
rS +

uil (r) = 0,
rS

deci
uil =

|uil (r)|.

rS +

rS

Sa demonstram ca are loc


uil (r) < 1.

(5.11)

rS +

Presupunem ca starea j0 din ipoteza 1 apartine lui S + ; atunci


(s)

uil (r) =
rS +

(s)

(s)

(pir plr ) =
rS +

rS +
(s)

plr

(s)

pir

plr
rS +

(s)

1 plj0 < 1

rS +
(s)

(s)

deoarece 0 < plj0

plr . Aceeasi evaluare se obtine dupa un rationament analog n


rS +

cazul n care j0 S . Deoarece (5.11) are loc pentru orice i, l S, rezulta


u = sup
i,lS

uil (r) < 1.


rS +

Revenim la suma ce trebuia majorata si folosim (5.10)


(n)

(n)

(ns)

pij plj =

uil (r)prj
rS +

(ns)

|uil (r)|prj
rS

202

Procese stochastice
(ns)

uil (r)pj
rS +

(ns)

uil (r)p(ns)
j

u(pj

p(ns)
).
j

rS

Cum inegalitatea are loc pentru orice i, l S, rezulta ca


(n)

(ns)

pj p(n)
j

u(pj

p(ns)
).
j

Aplicand aceasta inegalitate de [ ns ] ori, unde [ ], semnifica partea ntreaga a numarului ns ,


deducem ca
n
(n)
(n)
sup |pij plj | = |pj pj | u[ s ]
i,lS

iar

n
lim u[ s ] = 0.

De aici rezulta ca

(n)

pj = pj = lim pij
n

si aceasta limita o notam p


j .
Importanta acestei teoreme este nsemnata, deoarece pe baza ei putem analiza stabilitatea n timp a unor procese aleatoare.
Exemplul 5.1.8 Consideram urmatorul proces Markov: multimea starilor are 3 elemente
si daca la un moment dat este luata o anumita stare, la momentul urmator se trece n
oricare din celelalte doua cu aceeasi probabilitate. Matricea de trecere este evident

0 21 12

P = 2 0 2 .

1
1
0
2
2
Observam ca

P =

1
2

1
4

1
4

1
4

1
2

1
4

1
4

1
4

1
2

satisface conditia 1 din teorema precedenta, pe care o vom numi conditie de ergodicitate.
Fiind matrice simetrica ea admite valorile proprii reale 1 = 1, 2,3 = 12 si forma
diagonala

1 0
0
D = 0 21 0 .
0 0 21
Fie S matricea ortogonala de schimbare de baza, care are forma
1

1
1

S=

1
3

12

1
6

1
3

2
6

Procese stochastice

203

Ridicand la puterea n matricea P = SDS t , rezulta


1 1

n
lim P =

1
3

1
3

1
3

1
3

1
3

1
3

1
3

Mai sus s-a folosit faptul ca Dn are pe diagonala puterea a n -a a elementelor de pe


diagonala lui D. Deci dupa un numar foarte mare de pasi se poate presupune ca fiecare
stare este luata cu aceleasi sanse.
Exemplul 5.1.9 Fie un lant Markov cu doua stari si diagrama asociata n Figura 5.3.
Obsevam ca matricea de tranzitie este de forma
1

Sa studiem comportarea la limita a matricei de tranzitie. Putem scrie


P =

1
+

1
+

Se constata usor ca
Pn =

1
+

(1 )n
+

Matricea de tranzitie dupa n pasi tinde pentru n + la


1
+

Daca cele doua stari sunt luate initial cu probabilitatile p0 , 1 p0 , se constata ca pentru

, +
. Deci dupa un numar foarte mare de pasi
n + probabilitatile de stare sunt +
probabilitatile nu depind de starea initiala.
Daca analizam mersul la ntamplare cu bariere absorbante, pentru l = 2, gasim

1 0 0
P = q 0 p
0 0 1
iar P n = P, n IN . Observam ca nu este n deplinita conditia de ergodicitate; se
poate totusi aprecia ca la un numar foarte mare de pasi particula ramane imobila, fiind
absorbita de bariere.

204

5.2

Procese stochastice

Procese Markov continue. Procese Poisson

Procese Poisson.
In unele situatii practice, facand observatii asupra unui eveniment aleator ne poate
interesa de cate ori s-a produs acesta ntr-un interval de timp ; de exemplu numarul de
impulsuri care apar la o centrala telefonica ntr-un interval de timp, numarul de clienti
care solicita un produs ntr-o statie de deservire, numarul de vehicule care traverseaza
un pod, etc. Pentru orice t IR, notam cu X(t) numarul de produceri ale evenimentului
n intervalul (0, t); evident variabila aleatoare X(t) ia valori n IN . Facem urmatoarele
presupuneri:
1. observatiile ncep la momentul initial t = 0, deci X(0) = 0;
2. pentru orice momente de timp 0 < t1 < t2 < t3 < t4 , variabilele aleatoare X(t2 )
X(t1 ) si X(t4 ) X(t3 ) sunt independente (proces cu cresteri independente);
3. repartitia variabilei aleatoare X(t + s) X(t), t > 0, s > 0, depinde doar de s,
lungimea intervalului si nu de t;
4. probabilitatea ca un singur eveniment sa se produca n intervalul (t, t + t), pentru
t suficient de mic este aproximativ proportionala cu lungimea intervalului, deci de forma
t + o(t). Probabilitatea ca mai mult de un eveniment sa se produca n intervalul
(t, t + t) este o(t).(Prin o(t)s-a notat o cantitate ce depinde doar de t ce satisface
o(t)
lim
= 0.) Notam pk (t) = P ({X(t) = k}). Fie t suficient de mic; la momentul
t0 t
t + t, X(t) ia valoarea k n urmatoarele doua moduri:
a. X(t) = k si nici un eveniment nu se produce n intervalul (t, t + t);
b. X(t) = k 1 si un eveniment se produce n (t, t + t).
Deoarece din ipoteza 2, variabilele aleatoare X(t + t) X(t) si X(t) sunt independente, probabilitatea evenimentului dat de a este pk (t)(1 t), iar cea a evenimentului
dat de b este pk1 (t)t si cum evenimentele de la a si b sunt independente
pk (t + t) = pk (t)(1 t) + pk1 (t)t.
Relatia se scrie sub forma echivalenta
pk (t + t) pk (t)
= pk (t) + pk1 (t) k = 1, 2, 3 . . .
t
Cand t 0, gasim ecuatia diferentiala
pk (t) = pk (t) + pk1 (t).

(5.12)

Pentru k = 0, p1 (t) = 0 si ecuatia (5.12) devine


p0 (t) = p0 (t)
cu solutia evidenta p0 (t) = Aet . Din ipoteza 1 avem conditia initiala X(0) = 0, care
determina n mod unic solutia
p0 (t) = et .

Procese stochastice

205

Pentru k = 1, ecuatia (5.12) devine


p1 (t) = p1 (t) + et ,
care este o ecuatie liniara cu solutia
p1 (t) = tet .
Procedand recursiv n acest mod, gasim
(t)k t
e , k = 0, 1, 2. . . .
k!
Constatam ca pentru fiecare t IR, X(t) este o variabila aleatoare repartizata Poisson
cu parametru t.
pk (t) =

Matricea de tranzitie cu un pas.


(t)ji t
e , j
pij (t) = P ({j i evenimente au loc n t secunde}) =
(j i)!
Matricea P este

2 t
et tet (t)2!e
...

.
P (t) =
t
t
0
e
te
...
...
...
...
...

i.

Intervalul aleator dintre dou


a evenimente succesive ntr-un proces
Poisson.
Daca n cadrul unui proces Poisson un eveniment se produce la momentul t, iar
urmatorul la momentul t + , este o variabila aleatoare. Sa-i determinam densitatea de
probabilitate. Pentru aceasta determinam mai ntai functia de repartitie. Avem
P ({

x}) = ex .

{ x} exprima faptul ca nici un eveniment nu are loc n intervalul (t, t+x). Deci functia
de repartitie este 1 ex , x 0, iar prin derivare gasim f (x) = ex , x 0, care
este repartitia exponentiala. Aceasta densitate caracterizeaza intervalul aleator de timp
dintre doua produceri succesive de evenimente ale unui proces Poisson. Sa observam ca
P ({

t + t0 }|{

P ({ t0 + t})
=
P ({ t0 })

es ds

t0 +t

t0 }) =

= et = P ({

t}),

es ds

t0

ceea ce semnifica faptul ca procesul Poisson este un proces Markov. Observam ca probabilitatea ca n intervalul (0, t) sa se produca exact un eveniment este tet , deoarece
este urmata o lege Poisson cu parametrul t.

206

Procese stochastice

Exemplul 5.2.1 Impulsurile care se receptioneaza la o statie se primesc cu rata de 15


pe minut. Sa determinam probabilitatea ca ntr-un minut sa se receptioneze 5 impulsuri
astfel: 3 impulsuri sa ajunga n primele 10 secunde si 2 impulsuri n ultimile 15 secunde.
15
Obtinem = 60
= 14 si
P ({X(10) = 3, X(60) X(45) = 2}) = P ({X(10) = 3})P ({X(60) X(45) = 2}) =
= P ({X(10) = 3})P ({X(60 45) = 2}) =

2 15
10 3 10
e 4 15
e 4
4
4

3!

2!

Momentul de producere al unui eveniment ntr-un proces Poisson.


Ne intereseaza, pe de alta parte, urmatorul eveniment: stiind ca n intervalul (0, t) s-a
produs exact un eveniment, ce densitate de probabilitate are momentul de producere, pe
care l notam cu s, 0 s t. s este o variabila aleatoare continua a carei densitate de
probabilitate o notam cu g. Sa determinam functia de repartitie.
F (s) = P ({X(s) = 1}|{X(t) = 1}) =

P ({X(s) = 1, X(t) = 1})


=
P ({X(t) = 1})

P ({X(s) = 1, X(t) X(s) = 0})


P ({X(s) = 1, X(t s) = 0}
es se(ts)
s
=
=
= .
t
P ({X(t) = 1})
P {X(t) = 1})
e (t)
t
Densitatea de probabilitate este atunci
g(s) =

1
,0
t

t,

care este densitatea de probabilitate a repartitiei uniforme; deci producerea n intervalul


(0, t) a unui singur eveniment se face dupa legea uniforma.
Exemplul 5.2.2 Doi clienti ajung la o statie ntr-o perioada de doua minute. Sa determinam probabilitatea ca ambii sa ajunga n primul minut. Timpii fiind repartizati
uniform si independent, rezulta ca probabilitatea este 14 .
Timpul la care s-a produs evenimentul n ntr-un proces Poisson.
Aparitia unui client la o statie de deservire este supus legii Poisson cu parametrul
. Daca statia se nchide dupa aparitia clientului n sa determinam densitatea de probabilitate pentru timpul T n care statia ramane deschisa. Fie Ti timpul dintre sosirea
clientului i 1 si a clientului i (T1 este timpul de la deschidere pana la sosirea primului
client). Avem deci
T = T1 + . . . + Tn ,
unde {T < t} semnifica faptul ca statia s-a nchis pana la momentul t, deci au aparut cel
putin n clienti, iar probabilitatea este data de legea Poisson cu parametrul t

P ({T < t}) =


k=n

(t)k t
e .
k!

Procese stochastice

207

Prin derivare gasim

fT (t) =

k
k=n

(t)k1 (t)k

k!
k!

et =

(t)n1 t
e
(n 1)!

care este o densitate de probabilitate pentru variabila numita repartitia Erlang.


Exemplul 5.2.3 Numarul de semnale emise de un radar este un proces Poisson cu
parametrul . Daca n semnale au fost observate n intervalul (0, t) sa determinam probabilitatea evenimentului {k particule au fost emise n (0, )} cu < t.
P ({k semnale emise n (0, ) | n semnale emise n (0, t)}) =
=

P ({k semnale emise n (0, ) si n k semnale emise n (, t)})


=
P ({n semnale emise n (0, t)})
=

e ( )k e(t ) ((t ))nk


k!
(nk)!
(t)n
t
e
n!

= Cnk

nk

Exemplul 5.2.4 Semnalul telegrafic aleator.


Fie T (t) un proces care ia starile 1 cu aceeasi probabilitate la momentul initial. T (t)
si schimba polaritatea odata cu sosirea unui semnal dintr-un proces Poisson cu parametrul
. Reprezentam o traiectorie n Figura 5.4.
Sa calculam probabilitatile evenimentelor {T (t) = 1}.
Ne ocupam pentru nceput de evenimentul {T (t) = 1}. Folosind formula probabilitatii
totale avem
P ({T (t) = 1}) = P ({T (t) = 1}|{T (0) = 1})P ({T (0) = 1})+
+P ({T (t) = 1}|{T (0) = 1})P ({T (0) = 1}).
Calculam probabilitatile conditionate. Notam cu A = { n intervalul (0, t) se produce un
numar par de schimbari } si cu B = { n intervalul (0, t) se produce un numar impar de
schimbari }
+

P ({T (t) = 1}|{T (0) = 1}) = P (A) =


j=0

(t)2j t et t
e =
(e + et ) =
(2j)!
2

1
= (1 + e2t ).
2
1
P ({T (t) = 1}|{T (0) = 1}) = P (B) = (1 e2t ).
2
1
Deoarece P ({T (0) = 1}) = P ({T (0) = 1}) = 2 , rezulta dupa nlocuiri ca evenimentele
{T (t) = 1} au probabilitatea 12 .

208

Procese stochastice

Procese de nastere-moarte.
Vom modela n continuare urmatoarea situatie practica ce apare n teoria asteptarii.
Consideram un sistem format dintr-un fir de asteptare formata din n clienti si o
persoana care serveste. Spunem ca sistemul se afla n starea Sn daca sunt n clienti la
coada, inclusiv cel servit (daca exista). Din starea Sn sunt posibile doar doua tranzitii:
- la starea Sn1 daca un client a fost servit si paraseste coada;
- la starea Sn+1 daca un client este nca servit n timp ce un nou client se aseaza la
coada.
Consideram un proces care descrie comportarea cozii n timp. La momentul t, daca
sistemul precedent se afla n starea Sn , vom nota X(t) = n. Se obtine astfel un proces
Markov. Facem urmatoarele ipoteze:
1. Daca sistemul este n starea Sn , poate realiza tranzitii la Sn1 sau la Sn+1 , n 1
(de la S0 este posibila doar S1 ).
2. Probabilitatea unei tranzitii Sn Sn+1 ntr-un interval scurt t este n t parametrul n se numeste parametru de nasteresi facem ipoteza ca depinde de starea
Sn .
3. Probabilitatea unei tranzitii Sn Sn1 ntr-un interval de lungime t este n t
parametru n se numeste parametru de moarte.
Probabilitatea ca n intervalul (t, t + t) sa aiba loc mai mult de o tranzitie este 0.
Sistemul se afla n starea Sn la momentul t + t n urmatoarele situatii:
a. La momentul t se afla n starea Sn si nici o tranzitie nu are loc n intervalul (t, t+t)
cu probabilitatea (1 n t)(1 n t), care poate fi aproximata cu 1 n t n t.
b. Fiind n starea Sn1 la momentul t are loc o tranzitie la starea Sn n intervalul
(t, t + t) cu probabilitatea n1 t.
c. La momentul t sistemul se afla n starea Sn+1 si o tranzitie la starea Sn are loc n
(t, t + t) cu probabilitatea n+1 t.
Notam Pn (t) = P ({ X(t) se afla n starea Sn }) si facem ipoteza ca ca Pn (t) este o
functie derivabila cu derivata continua. Atunci
Pn (t + t) = Pn (t)(1 n t n t) + n1 tPn1 (t) + n+1 tPn+1 (t), n

1,

P0 (t + t) = P0 (t)(1 0 t) + 1 tP1 (t).


Impartind prin t
Pn (t + t) Pn (t)
= (n + n )Pn (t) + n1 Pn1 (t) + n+1 Pn+1 (t), n
t
P0 (t + t) P0
t = 0 P0 (t) + 1 P1 (t).
t
Daca t 0, obtinem
Pn (t) = (n + n )Pn (t) + n1 Pn1 (t) + n+1 Pn+1 (t),
P0 (t) = 0 P0 (t) + 1 P1 (t).

1,

1,

Procese stochastice

209

Vom da solutii pentru aceste ecuatii diferentiale n cazul n care Pn (t) nu depinde de t; n
acest caz sistemul precedent devine
(n + n )Pn = n1 Pn1 + n+1 Pn+1 , n
0 P0 = 1 P1 ,

1,

si se rezolva prin recurenta. Se obtine solutia


0
P0
1
0 1
=
P0
1 2

P1 =

P2
.
..
.
0 1 . . . n1
P0
Pn =
1 2 . . . n
Deoarece sistemul trebuie sa se afle ntr-o stare, suma probabilitatilor precedente trebuie
sa fie 1, deci
0 0 1
P0 1 +
+
+ . . . = 1.
1
1 2
Exemplul 5.2.5 Intr-o statie sosesc clienti dupa legea Poisson cu parametrul , iar
timpul de servire este o lege exponentiala cu parametrul pozitiv , 0 < < . Daca este
aglomeratie se formeaza o coada, iar starea sistemului la momentul X(t) este un proces
de nastere -moarte cu parametrii n = si n = . Particularizand ecuatiile precedente
si notand = gasim

P1 = P0

P0 = 2 P0
P2 =

.
..
.
n

Pn =
P0 = n P0

Punem conditia

1
= 1, < 1.
1
De aici rezulta P0 = 1 . Deducem Pn = (1 )n , pentru n = 0, 1, . . ., care este repartitia geometrica.Sa particularizam aceasta situatie. Pentru a evita aglomeratia dintr-o
statie de deservire, clientii asezati la coada ar trebui sa nu depaseasca numarul 5, cu
probabilitatea 0,99. Sosirile au loc dupa o lege Poisson cu parametrul = 1, 5 clienti pe
minut. Daca deservirea se face dupa o lege exponentiala, cat de repede trebuiesc acestia
serviti ? Sa determinam deci .
Probabilitatea ca cel putin 5 clienti sa fie la coada este
P0 (1 + + 2 + . . .) = P0

(1 )n = 5 ; =

p=
n=5

210

Procese stochastice

Pentru ca aceasta probabilitate sa fie 1-0,99 =0,01, punem conditia


5

0, 1

de unde gasim > 9, 12. Deci ar trebui serviti cel putin 10 clienti n medie pe minut
pentru a evita aglomeratia.

5.3

Procese stochastice stationare

In unele situatii starile precedente ale unui sistem exercita un puternic efect asupra
starilor viitoare. In general daca procesele au fost considerate fara postactiune (procese
Markov), se pot face unele corectari n alegerea starilor. De exemplu, daca consideram
o schimbare n pozitia unei particule n procesul de difuzie, considerat ca proces fara
postactiune, aceasta nseamna ca se neglijeaza inertia particulei. Situatia se poate corecta
introducand n conceptul de stare si viteza particulei, alaturi de coordonatele pozitiei.
In cazul cel mai general Hincin a izolat o clasa importanta de procese stochastice cu
postactiune, numite procese stationare. Acestea se ntalnesc n fenomenele acustice, teoria
semnalelor etc.
Fie {X(t)}, t 0, un proces stochastic.
Definitia 5.3.1 Numim functie de repartitie ndimensionala functia data prin formula
F (x1 , . . . , xn , t1 , . . . , tn ) = P ({X(t1 ) < x1 , . . . , X(tn ) < xn })
pentru orice t1 , . . . , tn , n IN .
Presupunem ca functia de repartitie n-dimensionala satisface urmatoarele doua conditii:
-conditia de simetrie
F (xi1 , . . . , xin , ti1 , . . . , tin ) = F (x1 , . . . , xn , t1 , . . . , tn ),

(5.13)

pentru orice permutare i1 , . . . , in a multimii 1, . . . , n,


-conditia de compatibilitate; daca m < n
F (x1 , . . . , xm , t1 , t2 , . . . , tm ) =
= F (x1 , . . . , xm , , . . . , , t1 , . . . , tm , tm+1 , . . . , tn ), m + 1

n.

(5.14)

Kolmogorov a demonstrat ca aceste functii de repartitie caracterizeaza complet un proces


stochastic, n sensul ca data o familie de functii ce verifica conditiile 1-4, din Capitolul 3.3
si satisface (5.13), (5.14), exista un camp borelian de probabilitate si un proces stochastic
care admite aceste functii, ca functii de repartitie n-dimensionale (vezi [9]). Prin analogie
cu cazul variabilelor aleatoare n-dimensionale, se poate introduce notiunea de densitate
de probabilitate, care se va nota f (x1 , . . . , xm , t1 , t2 , . . . , tm ). Daca procesul este cu valori
discrete, analogul l constituie
p(x1 , . . . , xm , t1 , t2 , . . . , tm ) = P ({X1 (t1 ) = x1 , X2 (t2 ) = x2 , . . . , Xn (tn ) = xn })

Procese stochastice

211

Exemplul 5.3.1 Fie Xn un lant de variabile aleatoare identic, independent repartizate,


cu p = 12 , atunci
P ({X1 (t1 ) = x1 , X2 (t2 ) = x2 , . . . , Xn (tn ) = xn }) = 2n .
Valori caracteristice ale unui proces.
Fie X(t) un proces aleator. Media mX (t) este definita prin
+

mX (t) = M [X(t)] =

xf (x, t)dx,

unde f (x, t) este densitatea de probabilitate a variabilei X(t). Autocorelatia RX (t1 , t2 )


este definita prin
+

RX (t1 , t2 ) = M [X(t1 )X(t2 )] =

xyf (x, y, t1 , t2 )dxdy,

unde f (x, y, t1 , t2 ) este densitatea de probabilitate de dimensiune doi a procesului. Autocovarianta


CovX (t1 , t2 ) este definita drept covarianta variabilelor X(t1 ) si X(t2 ),
CovX (t1 , t2 ) = M [(X(t1 ) mX (t1 ))(X(t2 ) mX (t2 ))].
Legatura dintre cele doua functii este imediata si consta n
CovX (t1 , t2 ) = RX (t1 , t2 ) mX (t1 )mX (t2 ).
Dispersia (varianta) lui X(t) este data de formula
D2 [X(t)] = M [(X(t) mX (t))2 ] = CovX (t, t).
Coeficientul de corelatie este definit de
X (t1 , t2 ) =

CovX (t1 , t2 )
CovX (t1 , t1 ) CovX (t2 , t2 )

Exemplul 5.3.2 Fie X(t) = A cos 2t, unde A este o variabila aleatoare. Sa determinam
valorile caracteristice.
mX (t) = M [A cos 2t] = M [A] cos 2t;
RX (t1 , t2 ) = M [A cos 2t1 A cos 2t2 ] = M [A2 ] cos 2t1 cos 2t2 ;
CovX (t1 , t2 ) = RX (t1 , t2 ) mX (t1 )mX (t2 ) = (M [A2 ] M 2 [A]) cos 2t1 cos 2t2 =
= D2 [A] cos 2t1 cos 2t2 .

212

Procese stochastice

Procese multiple.
Doua procese X(t), Y (t) se numesc independente daca k, j si orice alegere t1 , . . . , tk si
t1 , . . . tj ,
variabilele
aleatoare
multidimensionale
(X(t1 ), . . . , X(tk ))
si
(Y (t1 ), . . . Y (tj )) sunt independente. Corelatia ncrucisat
a RXY (t1 , t2 ) este definita prin
RXY (t1 , t2 ) = M [X(t1 )Y (t2 )].
Procesele X(t) si Y (t) se numesc ortogonale daca
RXY (t1 , t2 ) = 0, t1 , t2 .
Covarianta ncrucisat
a CovXY (t1 , t2 ) este definita prin
CovXY (t1 , t2 ) = M [(X(t1 ) mX (t1 ))(Y (t2 ) mY (t2 ))] = RXY (t1 , t2 ) mX (t1 )mY (t2 ).
Procesele se numesc necorelate daca
CovXY (t1 , t2 ) = 0, t1 , t2 .
Exemplul 5.3.3 Fie X(t) = cos(t + ) si Y (t) = sin(t + ) unde este o variabila
aleatoare repartizata uniform pe [, +]. Sa determinam covarianta ncrucisata. Aratam
ca media procesului X(t) este 0.
1
mX (t) = M [cos(t + )] =
2

cos(t + x)dx = 0.

Analog rezulta ca media procesului Y (t) este 0.


RXY (t1 , t2 ) = M [cos(t1 + ) sin(t2 + )] =
1
1
1
= M [ sin((t1 t2 )) + sin((t1 + t2 ) + 2)] = sin((t1 t2 ))
2
2
2
deoarece M [sin((t1 + t2 ) + 2)] = 0.
Definitia 5.3.2 Procesul X(t) se numeste stationar n sens restrans dac
a t1 , . . . , tn
IR+ , n IN , u IR+ are loc
F (x1 , . . . xn , t1 + u, . . . , tn + u) = F (x1 , . . . , xn , t1 , . . . , tn ).

(5.15)

Relatia (5.15) se interpreteaza astfel: functiile de repartitie n-dimensionale nu depind de


cresterea timpului. Daca n (5.15) dam lui n valoarea 2, gasim ca functiile de repartitie
bidimensionale depind numai de diferenta t2 t1 . Deoarece n practica lucrul cu functiile
de repartitie este dificil se pune problema nlocuirii lor cu alte caracteristici si anume cu
momentele. Daca X(t) are dispersie finita si X(t) este stationar n sens restrans gasim:
1.M [X(t + u)] = M [X(t)] = M [X(0 + t)] = M [X(0)] = m;
2.D2 [X(t + u)] = D2 [X(t)] = D2 [X(0)] = 2 ;
3.M [(X(t + u)X(t))] = M [(X(u)X(0))].
Ca o prima consecinta a acestor proprietati, observam ca n cazul proceselor stationare
putem presupune m = 0 si = 1, ceea ce revine la considerarea procesului normalizat,
X(t) m
.
adica

Procese stochastice

213

Definitia 5.3.3 Procesul X(t) este stationar n sens larg daca au loc conditiile 1-3.
Definitia 5.3.4 Numim functie de corelatie a unui proces stationar n sens larg coeficientul de corelatie al variabilelor aleatoare X(t) si X(t + u).
Deci functia de corelatie are expresia
R(u) =

M [X(t + u) M [X(t + u)]]M [X(t) M [X(t)]]


D2 [X(t)]D2 [X(t + u)]

Daca facem ipoteza m = 0 si = 1 din conditia de a fi stationar rezulta ca functia de


corelatie depinde doar de u si are expresia
R(u) = M [(X(u)X(0))].
Definitia 5.3.5 Un proces stationar se numeste continuu dac
a are loc
M (X(t + u) X(t))2 0, pentru u 0.
Propozitia 5.3.1 Dac
a X(t) este un proces continuu, atunci au loc:
1. P ({ |X(t + u) X(t) | }) 0, dac
a u 0;
2. lim R(u) = 1;
u0

3. R(u) este continu


a.
Demonstratie.
1. Din inegalitatea lui Cebasev , rezulta
P ({|X(t + u) X(t)|

}) = P ({|X(t + u) X(t) M [(X(t + u) X(t))]|

})

D2 [(X(t + u) X(t))]
,

care din definitia continuitatii tinde la 0, daca u 0.


2. Se observa imediat ca
M (X(t + u) X(t))2 = 2(1 R(u)) 0, daca u 0,
de unde afirmatia 2.
3. Folosind inegalitatea lui Cauchy are loc
|R(u + u) R(u)| = |M [(X(u + u)X(0))] M [(X(u)X(0))]| =
M [X 2 (0)]M [(X(u + u) X(u))2 ] 0,

= |M [(X(0)(X(u + u) X(u))]|
daca u 0.

Teorema 5.3.1 (Teorema lui Hincin) Functia real


a R(u) este o functie de corelatie pentru
un proces stationar continuu daca si numai daca exista o functie de repartitie F (x) astfel
nc
at

R(u) =
cosux dF (x).

214

Procese stochastice

Demonstratie. Sa presupunem mai ntai ca R(u) este o functie de corelatie pentru un proces
stationar continuu. Din proprietatea precedenta R(u) rezulta continua si marginita. Sa
aratam ca este si pozitiv definita. Pentru orice numere reale u1 , u2 , . . . , un din IR si
1 , . . . , n C unde n IN , are loc
n

k X 2 (uk )| = M

M|

i j X(ui )X(uj )

i=1 j=1

k=1
n

R(ui uj )i j .
i=1 j=1

Deoarece R(0) = 1 din teorema Bochner-Hincin are loc reprezentarea

eiux dF (x),

R(u) =

unde F este o functie de repartitie. Deoarece R este o functie reala, rezulta afirmatia.
Reciproc, sa aratam ca daca

R(u) =

cosux dF (x),

exista un proces stationar X(t) cu functia de corelatie R(u). Fie n IN , t1 , t2 , . . . , tn si


variabila aleatoare n-dimensionala normal repartizata X(t1 ), . . . X(tn ) cu
M [X(t1 )] = . . . = M [X(tn )] = 0,
D2 [(X(t1 ))] = . . . = D2 [(X(tn ))] = 1,
avand functiile de corelatie
R(ti tj ) = M [X(ti )X(tj )].
Deoarece forma patratica
n

R(ti tj )ui uj
i=1 j=1

este pozitiv definita, se pot defini functiile de densitate


n

fn (u1 , . . . , un , t1 , . . . , tn ) = An e

R(ti tj )ui uj
i=1 j=1

, An IR.

Se verifica usor ca functiile de repartitie asociate satisfac conditiile de simetrie si compatibilitate, deci definesc un proces stochastic, care rezulta stationar.

Procese stochastice

215

Exemplul 5.3.4 Consideram procesul de forma


Z(t) = X(t) cos t + Y (t) sin t, IR,
unde X(t), Y (t) sunt procese necorelate, deci M [XY ] = M [X)M [Y ] ce satisfac
M [X] = M [Y ] = 0, D2 [X] = D2 [Y ] = 1.
Sa aratam ca Z(t) este un proces stationar. Pentru aceasta sa calculam functia de corelatie
R(u) = M [X(t + u)X(t)] =
= M [X cos (t + u) + Y sin (t + u))(X cos t + Y sin t)] =
= M [(X 2 cos t cos (t + u) + XY (sin (t + u) cos t + cos (t + u) sin t)+
+Y 2 sin t sin (t + u)] = cos (t + u) cos t + sin t sin (t + u) = cos u.
Alegem

0,
1
,
f (x) =
2
1,

Avem atunci

x
< x
x>

cos u =

cos uxdF (x) =

cos uxdF (x),

de unde n virtutea teoremei rezulta ca procesul este stationar.


Exemplul 5.3.5 Consideram procesul
n

bk Zk (t),

X(t) =
k=1
n

b2k = 1, iar Zk (t) = Xk (t) cos k t+Yk sin k t, k IR. Xk (t), Yk (t) sunt preocese

unde
k=1

ce satisfac
M [Xk ] = M [Yk ] = 0, D2 [Xk ] = D2 [Yk ] = 1, k = 1, n
M [Xi Xj ] = M [Yi Yj ] = 0, i = j, M [Xi Yj ] = 0, i, j = 1, n.
Calculand functia de corelatie, gasim
n

b2k cos k u,

R(u) =
k=1

de unde rezulta ca procesul este stationar, asociat functiei de repartitie F care are salturi
de marimea 21 b2k n punctele k .
In literatura de specialitate F se numeste spectru; daca F este functie de salturi, procesul
se numeste cu spectru discret. Slutsky a demonstrat ca orice proces cu spectru discret
este reprezentabil sub forma celui din exemplul precedent.

216

Procese stochastice

PROBLEME PROPUSE

Problema 4.1 Fie In procesul Bernoulli identic si independent repartizat. Calculati


P ({I1 = 1, I2 = 0, I3 = 0, I4 = 1}).
R: p2 (1 p)2 .
Problema 4.2 Fie Dn = 2In 1 unde In este procesul din problema precedenta.
Calculati media si dispersia.
Solutie mX (n) = M [2In 1] = 2M [In ]1 = 2p1 D2 [Dn ] = D2 [2In 1] = 22 D2 [In ] =
4p(1 p). Procesul reprezinta de fapt schimbarea pozitiei unei particule care se misca n
linie dreapta facnd salturi de 1 la fiecare unitate de timp.
Problema 4.3 Fie X un numar ales la ntmplare din [0, 1] si fie dezvoltarea lui n
+

bn 2n , bn {0, 1}. Definim Xn = bn , n IN . Calculati P ({X1 = 0}) si

baza 2, x =
n=1

P ({X1 = 0, X2 = 1}).
Solutie. X1 = 0, daca 0 X
1
este 14 , deoarece 14 X
.
2

1
,
2

deci cu probabilitatea 12 . Iar P ({X1 = 0, X2 = 1})

Problema 4.4 Un calculator este inspectat la momentele t1 , t2 , t3 si se poate afla n


una din urmatoarele stari:
s1 functioneaza normal;
s2 are un numar neglijabil de erori, care nu impiedica calculatorul sa functioneze;
s3 are erori considerabile, dar rezolva limitat probleme;
s4 nu functioneaza.
La momentul initial calculatorul este n starea s1 iar matricea de tranzitie este

0, 5 0, 3 0, 2 0
0 0, 4 0, 4 0, 2
.
P =
0
0 0, 3 0, 7
0
0
0
1
Asociati diagrama si aflati probabilitatile de stare dupa fiecare din cele trei inspectii.
Solutie. Probabilitatile de stare initiala sunt (1, 0, 0, 0), deoarece initial calculatorul
functioneaza. Apoi
p1 (1) = 0, 5, p2 (1) = 0, 3, p3 (1) = 0, 2, p4 (1) = 0
p1 (2) = 0, 25, p2 (2) = 0, 27, p3 (2) = 0, 28, p4 (2) = 0, 2
p1 (3) = 0, 125, p2 (3) = 0, 183, p3 (3) = 0, 242, p4 (3) = 0, 450.

Procese stochastice

217

Diagrama este urmatoare


Problema 4.5 O particula se deplaseaza aleator, sarind cate o unitate la dreapta sau
stanga, dupa diagrama de mai jos. Gasiti probabilitatea ca dupa patru pasi particula sa
nu fie mai departata cu o unitate fata de origine. Initial particula se afla n origine.
R: Insumam probabilitatile, ca la momentul 4, particula sa se afle n starile S1 , S0 ,
sau S1 si gasim 0,693.
Problema 4.6 Fie X(t) = cos(t + ) unde este repartizata uniform pe (, +).
Sa determinam media, autocorelatia si autovarianta.
+
1
Solutie mX (t) = M [cos(t + )] = 2
cos(t + x)dx = 0;

CovX (t1 , t2 ) = RX (t1 , t2 ) = M [cos(t1 + ) cos(t2 + )] =


+ 1
1
(cos((t1 t2 )) + cos((t1 + t2 ) + 2x)) dx = 12 cos((t1 t2 )).
2
2
Problema 4.7 Fie Xn un lant de variabile normale independente, identic repartizate,
cu media m si dispersia 2 . Determinati matricea de covarianta la momentele t1 , . . . , tk
si densitatea de probabilitate.
1 i=j
Solutie CX (ti , tj ) = 2 ij unde ij =
0 i=j
f (x1 , . . . , xk , X1 , . . . , Xk ) = fX (x1 )fX (x2 ) . . . fX (xk ) =
k

(xi m)2
=

i=1
1
e
(2 2 )k/2

2 2

Problema 4.8 Un proces Y (t) consta dintr-un semnal dorit X(t) la care se adauga
zgomotul N (t), deci Y (t) = X(t) + N (t). Gasiti corelatia ncrucisata dintre cele doua
procese, presupunnd ca X(t), N (t) sunt independente.
Solutie Folosind independenta variabilelor X(t) si N (t), gasim
RXY (t1 , t2 ) = M [X(t1 )Y (t2 )] = M [X(t1 )(X(t2 ) + N (t2 ))] =
= M [X(t1 )X(t2 )] + M [X(t1 )N (t2 )] =
= RXY (t1 , t2 ) + M [X(t1 )]M [N (t2 )] = RXY (t1 , t2 ) + mX (t1 )mN (t2 ).
Problema 4.9 In ziua 0 exista 2 becuri noi de rezerva. Probabilitatea de a schimba
un bec este p, iar probabilitatea de a nu schimba este q = 1 p. Fie Yn numarul de becuri
necesar la sfarsitul zilei n. Determinati matricea de tranzitie dupa un pas si dupa n pasi,
probabilitatile de stare la momentul n si comportarea lor la limita.
Solutie Starile procesului sunt 2,1,0, iar diagrama corespunzatoare este
Matricea de tranzitie cu un pas este

1
0
0
0
P = p 1p
0
p
1p
iar probabilitatile de stare la momentul initial sunt 0, 0, 1. Dupa n pasi

218

Index

p22 (n) = P ({ nici un bec nou nu e necesar n n zile}) = q n ;


p21 (n) = P ({ un bec nou este necesar n n zile}) = Cn1 pq n1 ;
p20 (n) = 1 p22 (n) p21 (n);
Matricea de tranzitie dupa n pasi este

1
0
0
1 qn
qn
0 .
Pn =
n
n1
n1
1 q npq
npq
qn
Trecnd la limita pe fiecare element al matricei gasim matricea

1 0 0
1 0 0 .
1 0 0
Probabilitatile de stare la momentul n sunt date de produsul

1
0
0
1 qn
qn
0
(0 0 1)
n
n1
n1
1 q npq
npq
qn
iar la limita se obtine (1 0 0). Interpretarea evidenta este ca dupa un numar foarte mare
de pasi procesul devine stationar si raman 0 becuri de rezerva.

Index

Index
matricea de covarianta, 121
repartitia Fisher , 148
coeficient de corelatie, 119
corelatia variabilelor, 119

momentele initiale, 147


momentele initiale ale repartitiei Gama, 149
momentele repartitiei Beta, 150
momentele repartitiei Student, 142
momentele variabilei aleatoare normale ndimensionale, 135

densitate de probabilitate, 91
densitate de probabilitate n-dimensionala,
normala normata, 93
100
densitate marginala de probabilitate, 101
q-cvantile, 88
densitatea de probabilitate conditionata, 97
Repartitia Beta, 150
formula de inversiune, 125
repartitia Erlang, 149
formula lui Bayes, 98, 113
repartitia exponentiala, 152
formula probabilitatii totale, 113
repartitia lognormala, 104
formula probabilitatii totale, 98
repartitia normala, 93
formulele integrale ale mediei totale, 121
repartitia normala n-dimensionala, 106
functia caracteristica a repartitiei Gama, 149 repartitia Rayleigh, 108
functia caracteristica a repartitiei normale , repartitia Snedecor, 147
132
repartitia Student , 142
functia de repartitie, 85
repartitia uniforma, 92
functie caracteristica, 123
repartitia uniforma n-dimensionala, 102
functie de fiabilitate, 150
repartitia Weibull, 152
functie de repartitie n dimensionala, 99
functie de repartitie conditionata, 89
teorema Bochner-Hincin, 129
functie marginala de repartitie, 101
teorema lui Bochner, 128
functie pozitiv definita, 129
teorema lui Cochran, 141
functiei lui Laplace, 94
variabila aleatoare, 83
legare n paralel, 154
variabila aleatoare n-dimensionala, 99
legare n serie, 153
variabila aleatoare continua, 88
variabile aleatoare independente, 85
media, 114
variabile necorelate, 119
media conditionata, 121
mediana, 89
medii conditionate, 121
modul, 115
moment centrat de ordin k, 116
moment pentru variabila aleatoare multidimensionala, 120
219

S-ar putea să vă placă și