Sunteți pe pagina 1din 159

MATEMATICI ECONOMICE SI FINANCIARE

SEMESTRUL 2

ELEMENTE DE TEORIA GRAFURILOR

1. Noţiuni generale

În general, pentru situaţiile care necesită la rezolvare un oarecare efort mental (şi un caz tipic
este cel al celor din economie), se caută, în primul rând, o metodă de reprezentare a lor care să
permită receptarea întregii probleme dintr-o privire (pe cât posibil) şi prin care să se evidenţieze cât
mai clar toate aspectele acesteia.
În acest scop se folosesc imagini grafice gen diagrame, schiţe, grafice etc. O reprezentare
dintre cele mai utilizate este cea prin grafuri. Acestea sunt utilizate în special pentru vizualizarea
sistemelor şi situaţiilor complexe. În general, vom reprezenta componentele acestora prin puncte în
plan iar relaţiile (legăturile, dependenţele, influenţele etc) dintre componente prin arce de curbă cu
extremităţile în punctele corespunzătoare. Între două puncte pot exista unul sau mai multe segmente
(în funcţie de câte relaţii dintre acestea, care ne interesează, există) iar segmentelor li se pot asocia
sau nu orientări (după cum se influenţează cele două componente între ele), numere care să exprime
intensitatea relaţiilor dintre componente etc.

Definiţia 1 Se numeşte (multi)graf un triplet G = (X, A, f) în care X şi A sunt două mulţimi


iar f este o funcţie, definită pe produsul cartezian al lui X cu el însuşi (X2 = X×X), care ia valori în
mulţimea părţilor mulţimii A (notată P(A))
Mulţimea X se numeşte mulţimea nodurilor multigrafului şi elementele sale se numesc
noduri (sau vârfuri) ale multigrafului, iar A reprezintă mulţimea relaţiilor (legăturilor) posibile
între două noduri ale multigrafului.

Definiţia 2 Se numeşte graf orientat un multigraf în care mulţimea A are un singur


element: A = {a}.
În acest caz mulţimea părţilor mulţimii A are doar două elemente: mulţimea vidă ∅ şi
întreaga mulţime A. Dacă unei perechi orientate (xi, xj) din X2 i se asociază prin funcţia f mulţimea
A atunci spunem ca există arc de la nodul xi la nodul xj iar perechea (xi,xj) se va numi arcul (xi,xj).
Nodul xi se numeşte nod iniţial sau extremitate iniţială a arcului (xi,xj) iar nodul xj se numeşte
nod final sau extremitate finală a arcului (xi,xj). Arcul (xi,xj) este incident spre interior vârfului
xj şi incident spre exterior vârfului xi. Dacă pentru un arc nodul iniţial coincide cu nodul final
atunci acesta se numeşte buclă. Nodurile xi şi xj se vor numi adiacente dacă există cel puţin unul
din arcele (xi,xj) şi (xj,xi).

Dacă unei perechi orientate (xi, xj) din X2 i se asociază prin funcţia f mulţimea vidă ∅
atunci spunem că nu există arc de la nodul xi la nodul xj.
Este evident că a cunoaşte un graf orientat este echivalent cu a cunoaşte vârfurile şi arcele
sale. Din acest motiv putem defini un graf orientat prin perechea (X,U), unde X este mulţimea
vârfurilor sale iar U mulţimea arcelor sale.
De asemenea, putem cunoaşte un graf orientat cunoscând mulţimea nodurilor şi, pentru
fiecare nod, mulţimea arcelor incidente spre exterior. Din acest motiv putem defini un graf orientat
ca o pereche (X,Γ) unde X este perechea nodurilor iar Γ este o funcţie definită pe X cu valori în

1
mulţimea părţilor lui X, valoarea acesteia într-un nod xi, Γ(xi) ⊆ X fiind mulţimea nodurilor
adiacente nodului xi, prin arce pentru care xi este extremitatea iniţială.

Definiţia 3 Se numeşte graf neorientat un multigraf în care mulţimea A are un singur


element iar funcţia f are proprietatea:
f[(xi,xj)] = f[(xj,xi)] , oricare ar fi nodurile xi şi xj din X
În aceste condiţii, dacă f[(xi,xj)] = f[(xj,xi)] = A atunci perechea neorientată {xi,xj} este o
muchie iar dacă f[(xi,xj)] = f[(xj,xi)] = ∅ spunem că nu există muchie între vârfurile xi şi xj.
Deoarece, în cele mai multe din cazurile practice care vor fi analizate în acest capitol,
situaţia este modelată matematic printr-un graf orientat, vom folosi, pentru simplificarea expunerii,
denumirea de graf în locul celei de graf orientat iar în cazul în care graful este neorientat vom
specifica acest fapt la momentul respectiv.
2. Moduri de reprezentare ale unui graf
A. O primă modalitate de reprezentare este listarea efectivă a tuturor nodurilor şi a arcelor
sale.
B. Putem reprezenta graful dând pentru fiecare nod mulţimea nodurilor cu care formează
arce în care el este pe prima poziţie.
C. Putem reprezenta geometric graful, printr-un desen în plan, reprezentând fiecare nod
printr-un punct(cerculeţ) şi fiecare arc printr-un segment de curbă care are ca extremităţi
nodurile arcului şi pe care este trecută o săgeată orientată de la nodul iniţial spre cel
final.
D. Putem folosi o reprezentare geometrică în care nodurile sunt reprezentate de două ori, în
două şiruri paralele, de la fiecare nod din unul din şiruri plecând săgeţi spre nodurile cu
care formează arce în care el este pe prima poziţie, de pe al doilea şir (reprezentarea prin
corespondenţă).
E. Un graf poate fi reprezentat printr-o matrice pătratică booleană, de dimensiune egală cu
numărul de noduri, în care o poziţie aij va fi 1 dacă există arcul (xi,xj) şi 0 în caz contrar,
numită matricea adiacenţelor directe.
F. Un graf poate fi reprezentat printr-o matrice pătratică latină, de dimensiune egală cu
numărul de noduri, în care pe o poziţie aij va fi xixj dacă există arcul (xi,xj) şi 0 în caz
contrar.
Exemplu: Dacă în reprezentarea A avem graful G = (X,U), unde X = {x1, x2, x3, x4, x5, x6}
şi U = {(x1,x1), (x1,x2), (x1,x4), (x1,x5), (x2,x3), (x2,x4), (x2,x6), (x3,x1), (x3,x2), (x4,x5), (x5,x2),
(x6,x4)}, atunci în celelalte reprezentări vom avea:
B x1 → {x1, x2, x4, x5} C
x2 → {x3, x4, x6}
x1 x2
x3 → {x1, x2}
x4 → {x5}
x5 → {x2} x6 x3
x6 → {x4}
x5 x4
D (reprezentarea prin corespondenţă)
x1 x2 x3 x4 x5 x6

x1 x2 x3 x4 x5 x6

2
E F
x1 x2 x3 x4 x5 x6 x1 x2 x3 x4 x5 x6
x1 1 1 0 1 1 0 x1 x1x1 x1x2 0 x1x4 x1x5 0
x2 0 0 1 1 0 1 x2 0 0 x 2x 3 x 2x 4 0 x 2x 6
x3 1 1 0 0 0 0 x3 x3x1 x3x2 0 0 0 0
x4 0 0 0 0 1 0 x4 0 0 0 0 x4x5 0
x5 0 1 0 0 0 0 x5 0 x5x2 0 0 0 0
x6 0 0 0 1 0 0 x6 0 0 0 x 6x 4 0 0

3. Concepte de bază în teoria grafurilor

1. semigraf interior al unui nod xk: este mulţimea arcelor U −x k = {(xj,xk)/ (xj,xk) ∈ U} care
sunt incidente spre interior nodului xk;
2. semigraf exterior al unui nod xk: este mulţimea arcelor U +x k = {(xk,xi)/ (xk,xi) ∈ U} care
sunt incidente spre exterior nodului xk;
3. semigradul interior al unui nod xk: este numărul arcelor care sunt incidente spre interior
nodului xk = cardinalul lui U −x k şi se notează cu δ x−k ;
4. semigradul exterior al unui nod xk: este numărul arcelor care sunt incidente spre
exterior nodului xk = cardinalul lui U +x k şi se notează cu δ x+k ;
5. gradul unui nod xk: este suma semigradelor nodului xk: δ x k = δ x+k + δ x−k ;
6. nod izolat: este un nod cu gradul 0;
7. nod suspendat: este un nod cu gradul 1;
8. arce adiacente: arce care au o extremitate comună;
9. drum într-un graf: o mulţime ordonată de noduri ale grafului: (x1, x2, ..., xk), cu
proprietatea că există în graf toate arcele de forma (xi,xi+1) i = 1,...,k-1;
10. lungimea unui drum: este numărul arcelor care îl formează;
11. drum elementar: un drum în care fiecare nod apare o singură dată;
12. drum simplu: un drum în care fiecare arc apare o singură dată;
13. putere de atingere a unui nod xi ∈ X în graful G: numărul de noduri la care se poate
ajunge din xi. Puterea de atingere se notează cu p(xi), 1 ≤ i ≤ n şi evident p(xi) ≥ δ x+i .
14. drum hamiltonian: un drum elementar care trece prin toate nodurile grafului;
15. drum eulerian: un drum simplu care conţine toate arcele grafului;
16. lanţ: un drum în care arcele nu au neapărat acelaşi sens de parcurgere;
17. circuit: un drum în care nodul iniţial coincide cu cel final;
18. circuit elementar: un drum în care fiecare nod apare o singură dată, cu excepţia celui
final, care coincide cu cel iniţial;
19. circuit simplu: un drum în care fiecare arc apare o singură dată;
20. circuit hamiltonian: un circuit care trece prin toate nodurile grafului;
21. ciclu: este un circuit în care arcele nu au neapărat acelaşi sens de parcurgere;
22. ciclu elementar: un ciclu în care fiecare nod apare o singură dată, cu excepţia celui
final, care coincide cu cel iniţial;
23. ciclu simplu: un ciclu în care fiecare arc apare o singură dată;
3
Observaţie: Într-un graf neorientat noţiunile de drum şi lanţ sunt echivalente şi de
asemenea cele de circuit şi ciclu.
24. graf parţial al unui graf G = (X,U): este un graf G'(X,U') cu U' ⊂ U;
25. subgraf al unui graf G = (X,Γ): este un graf G'(X',Γ') unde X' ⊂ X şi Γ'(xi) = Γ(xi) ∩ X'
pentru orice xi ∈ X';
26. graf redus al unui graf G = (X,U): este un graf G*(X*,U*) unde X* este formată din
mulţimile unei partiţii de mulţimi nevide ale lui X, iar ( X *i , X *j ) există doar dacă i ≠ j şi
există cel puţin un arc în U, de la un nod din X *i la un nod din X *j .
27. graf tare conex: este un graf în care între oricare două noduri există cel puţin un drum;
28. graf simplu conex: este un graf în care între oricare două noduri există cel puţin un lanţ;
Observaţie: Pentru grafuri neorientat noţiunile de tare conex şi simplu conex sunt
echivalente, graful numindu-se doar conex;
29. componentă tare conexă a unui graf G = (X,U): este un subgraf al lui G care este tare
conex şi nu este subgraful nici unui alt subgraf tare conex al lui G (altfel spus, între
oricare două noduri din componentă există cel puţin un drum şi nu mai există nici un nod
în afara componentei legat printr-un drum de un nod al componentei).

4. Găsirea drumurilor într-un graf orientat

Dacă privim graful ca imagine a unui sistem, nodurile reprezentând componentele sistemu-
lui, atunci o interpretare imediată a unui arc (xi,xj) este că, componenta xi influenţează direct
componenta xj. Dacă nodurile au semnificaţia de stări posibile ale unui sistem atunci un arc (xi,xj)
semnifică faptul că sistemul poate trece direct din starea xi în starea xj. În ambele cazuri se vede că
avem de-a face doar cu informaţii despre legături directe; totuşi, chiar dacă o componentă xi nu
influenţează direct componenta xj ea o poate influenţa prin intermediul altor componente, existând
un şir de componente intermediare: x1 x2 ,..., xk, fiecare influenţând-o direct pe următoarea şi xi
direct pe x1 iar xk direct pe xj. Astfel, dacă dintr-o stare xi nu se poate trece direct într-o stare xj s-ar
putea totuşi în mai multe etape, prin alte stări intermediare. Deoarece găsirea acestor influenţe sau
treceri posibile este de obicei foarte importantă iar pentru un sistem cu mii sau zeci de mii de
componente acest lucru nu mai poate fi făcut "din ochi", este necesară formalizarea noţiunii de
"influenţe" şi "treceri" posibile, nu neapărat directe. Acest lucru a şi fost făcut mai sus, deoarece
este evident că "xi influenţează xj" sau "din starea xi se poate trece în starea xj" este echivalent cu
existenţa în graf a unui drum de la nodul xi la nodul xj.
În continuare vom da un algoritm prin care putem găsi toate drumurile dintr-un graf
orientat cu un număr finit de noduri.

Pasul 1. Se construieşte matricea booleană a adiacenţelor directe corespunzătoare grafului, notată


cu A. În aceasta se află, evident, toate drumurile de lungime 1.

Este interesant de văzut ce legătură există între această matrice şi drumurile de lungime 2.
Fie două noduri xi şi xj oarecare din graf. Existenţa unui drum de lungime 2 între ele presupune
existenţa unui nod xk, din graf, cu proprietatea că există atât arcul (xi,xk) cât şi arcul (xi,xk). Pentru a
vedea dacă acesta există, luăm pe rând fiecare nod al grafului şi verificăm dacă există sau nu ambele
arce ((xi,xk) şi (xi,xk)). Aceasta este echivalent cu a verifica dacă, în matricea booleană a adiacenţe-
lor directe, există vreun indice k astfel încât elementul k al liniei i şi elementul k al coloanei j să fie
ambele egale cu 1. Dacă folosim operaţiile algebrei booleene de adunare şi înmulţire:
+& 0 1 ×& 0 1
0 0 1 0 0 0
1 1 1 1 0 1

4
atunci verificările de mai sus sunt echivalente cu a verifica dacă elementul de pe poziţia (i,j) din A2
este egal cu 1. Valoarea 1 spune doar că există cel puţin un drum de lungime 2 de la xi la xj. Dacă
dorim să vedem şi câte sunt, vom folosi regulile de înmulţire şi adunare obişnuită.
De asemenea, se poate observa că existenţa unui drum de lungime 3 de la xi la xj presupune
existenţa unui nod xk astfel încât să existe un drum de lungime 2 de la xi la xk şi un arc de la xk la xj,
care este echivalent cu a verifica dacă există vreun indice k astfel încât elementul k al liniei i din
matricea A2 şi elementul k al coloanei j din A sunt ambele egale cu 1 sau, mai simplu, dacă
elementul (i,j) din A3 este 1.
Din cele de mai sus se observă că existenţa drumurilor de lungime k este dată de valorile
matricei Ak, dacă s-au folosit regulile algebrei booleene şi numărul lor este dat de Ak, dacă s-au
folosit regulile obişnuite.

Pasul 2. Vom calcula succesiv puterile lui A până la puterea An-1

Dacă între nodurile xi şi xj există un drum de lungime ≥ n atunci el va conţine un număr de


noduri mai mare sau egal nu n+1 şi, cum în graf sunt doar n vârfuri, este clar că cel puţin unul, să
zicem xk, va apărea de două ori. Vom avea în acest caz un drum de la xi până la prima apariţie a lui
xk, şi un drum de la ultima apariţie a lui xk la xj. Eliminând toate nodurile dintre prima apariţie a lui
xk şi ultima apariţie a sa vom obţine un drum de la xi la xj, în care xk apare o singură dată. Aplicând
acest procedeu pentru toate nodurile care apar de mai multe ori pe drum, vom obţine un drum de la
xi la xj, în care fiecare nod apare o singură dată (deci un drum elementar), care are evident cel mult
n-1 arce. În concluzie, dacă există vreun drum de la xi la xj atunci există şi un drum elementar şi,
deci, va exista o putere a lui A, între A1 şi An-1, în care poziţia (i,j) este diferită de 0. Pentru
deciderea existenţei unui drum între oricare două noduri este suficientă, deci, calcularea doar a
primelor n-1 puteri ale lui A.

Pasul 3. Se calculează matricea D = A + A2 + ... + An-1

Dacă ne interesează doar existenţa drumurilor dintre noduri, nu şi numărul lor, vom folosi
înmulţirea şi adunarea booleană şi conform observaţiei de mai sus:
( (
⎧1 daca exista cel putin un drum de x i la x j
dij = ⎨ ( (
⎩0 daca nu exista nici un drum de x i la x j

În acest caz, observând că:

A⋅(A + I)n–2 = C 0n − 2 ⋅A + C 1n − 2 ⋅A2 + C 2n − 2 ⋅A3 + ... + C nn −− 22 ⋅An–1 = A + A2 + A3 + ... + An-1 = D

rezultă că e suficient să calculăm doar puterea n-2 a matricei A + I şi apoi s-o înmulţim cu A.
Avantajul acestei metode, în ceea ce priveşte economia de timp, este susţinut şi de următoarea
observaţie: dacă D conţine toate perechile de arce între care există drum atunci:

D = (A + A2 + ... + An-1) + An + An+1 + ... + An+k = D oricare ar fi k ≥ 0 ⇒


⇒ A⋅(A + I)n–2+k = (A + A2 + ... + An-1) + An + An+1 + ... + An+k-1 = D = A⋅(A + I)n–2 ⇔
⇔A⋅(A + I)n–2+k = A⋅(A + I)n–2 oricare ar fi k ≥ 0

deci de la puterea k = n-2 toate matricile Ak sunt egale. Putem, deci, calcula direct orice putere a lui
r
A+I mai mare sau egală cu n-1 (de exemplu calculând (A+I)2, (A+I)4, (A+I)8, ..., (A + I) 2 , r fiind
prima putere a lui 2 pentru care 2r ≥ n-2).

5
Procedeul de mai sus nu asigură decât aflarea faptului dacă există sau nu drum între două
noduri, eventual ce lungime are şi câte sunt de această lungime. Totuşi, în problemele practice cel
mai important este să ştim care sunt efectiv aceste drumuri. Deoarece toate drumurile pot fi
descompuse în drumuri elementare şi în problemele practice în general acestea sunt cele care
interesează, paşii următori ai algoritmului vor fi dedicaţi găsirii lor. Pentru găsirea acestora se
foloseşte reprezentarea grafului prin matricea latină de la cazul F.

Pasul 4. Construim matricea latină L asociată grafului, unde:

daca exista arcul (x i , x j )


( (
⎧x x
daca nu exista arcul (x i , x j )
lij = ⎨ i j ( (
⎩0
~
şi matricea L , definită prin:
~ ⎧x j daca exista arcul (x i , x j )
( (

⎩0 daca nu exista arcul (x i , x j )


lij = ⎨ ( (

numită matricea latină redusă.


Găsirea unui drum de lungime 2 de la xi la xj presupune găsirea unui nod cu proprietatea că
există arcele (xi,xk) şi (xk,xj) şi memorarea vectorului (xi, xk, xj). Aceasta este echivalent cu a găsi
un indice k astfel încât elementul de pe poziţia k a liniei i, din matricea L, să fie xi,xk şi elementul
~ ~
de pe poziţia k al coloanei j, din matricea L , să fie xj. Vom înmulţi deci matricea L cu matricea L ,
folosind însă nişte reguli de calcul speciale, numite înmulţire şi adunare latină.

Definiţia 1: Se numeşte alfabet o mulţime de semne numite simboluri sau litere {si/i∈I}
unde I este o mulţime oarecare de indici, finită sau nu.
Definiţia 2: Se numeşte cuvânt un şir finit de simboluri notat s i1 s i 2 ...s i n .
Definiţia 3: Se numeşte înmulţire latină o operaţie definită pe mulţimea cuvintelor unui
alfabet, notată " × L ", astfel:
s i1 s i 2 ...s i n × L s j1 s j2 ...s jm = s i1 s i 2 ...s i n s j1 s j2 ...s jm
(produsul a două cuvinte se obţine prin concatenarea lor)
Înmulţirea latină este asociativă, are ca element neutru cuvântul vid, nu e
comutativă şi un element este inversabil doar dacă este cuvântul vid.
Definiţia 3: Se numeşte adunare latină o funcţie definită pe mulţimea cuvintelor unui
alfabet cu valori în mulţimea parţilor mulţimi cuvintelor, notată " + L " astfel:
⎧ s s ...s ⎫
s i1 s i 2 ...s i n + L s j1 s j2 ...s jm = ⎨ i1 i 2 i n ⎬
⎩s j1 s j2 ...s jm ⎭
(suma a două cuvinte este mulţimea formată din cele două cuvinte)

Pasul 5. Se calculează succesiv matricile:


~ ~ ~
L2 = L × L L , L3 = L2 × L L , ... ,Lk+1 = Lk × L L

folosind operaţiile de înmulţire şi adunare latină, alfabetul fiind mulţimea nodurilor grafului, unde
operaţia de înmulţire este uşor modificată, produsul dintre două elemente ale matricilor fiind 0, dacă
unul dintre ele este 0 sau au un nod comun şi este produsul latin al lor, în caz contrar.
Din felul cum a fost construită, matricea Lk va conţine toate drumurile elementare de
lungime k. Cum un drum elementar poate avea cel mult n noduri (câte are graful cu totul) rezultă
că:
− primele n-1 puteri ale lui L conţin toate drumurile elementare din graf;
− puterile lui L mai mari sau egale cu n au toate elementele egale cu 0;
6
− matricea Ln-1 conţine toate drumurile hamiltoniene din graf (dacă există).

Observaţie: Deoarece obţinerea matricii D prin metoda de mai sus presupune un volum
foarte mare de calcule (de exemplu, dacă graful are 100 de noduri, ridicarea unei matrici de
100×100 la puterea 100) pentru obţinerea acesteia se poate aplica şi următorul algoritm:

Pas 1. Se construieşte matricea de adiacenţă A;


Pas 2. Pentru fiecare linie i se adună boolean la aceasta toate liniile j pentru care aij = 1.
Pas 3. Se reia pasul 2 până când, după o aplicare a acestuia, matricea rămâne aceeaşi (nu
mai apare nici un 1)
Ultima matrice obţinută este matricea drumurilor D numită şi matricea conexiunilor totale.
Această metodă, deşi mai simplă nu spune însă şi care sunt aceste drumuri, pentru găsirea
lor aplicându-se, de exemplu, înmulţirea latină

5. ARBORI. Problema arborelui de valoare optimă

În acest subcapitol grafurile vor fi considerate neorientate.

5.1. Noţiunea de arbore

Un arbore este un graf neorientat, finit, conex şi fără cicluri. Grafurile din fig. 4.1. sunt
arbori.

x1 x1 x1 x1 x1

x1
x1

x1 x1 x1 x1

a) c)
b)

Figura 4.1

Studiul arborilor este justificat de existenţa în practică a unui număr mare de probleme care
pot fi modelate prin arbori. Dintre acestea amintim:

1. construirea unor reţele de aprovizionare cu apă potabilă (sau cu energie electrică sau
termică etc) a unor puncte de consum, de la un punct central;
2. construirea unor căi de acces între mai multe puncte izolate;
3. desfăşurarea unui joc strategic;
4. luarea deciziilor în mai multe etape (arbori decizionali);
5. evoluţii posibile ale unui sistem pornind de la o stare iniţială;
6. construirea unei reţele telefonice radiale, a unei reţele de relee electrice;
7. legarea într-o reţea a unui număr mare de calculatoare;
8. organigramele întreprinderilor;
9. studiul circuitelor electrice în electrotehnică (grafe de fluenţă etc);
10. schemele bloc ale programelor pentru calculatoare etc.

7
În toate problemele de mai sus se doreşte ca, dintre muchiile unui graf neorientat, să se
extragă arborele optim din mulţimea tuturor arborilor care pot fi extraşi din graful dat.
Deoarece definiţia arborelui este dificil de aplicat pentru deciderea faptului că un graf este
arbore sau nu (şi în special sunt greu de verificat conexitatea şi mai ales existenţa ciclurilor) există
mai multe caracterizări posibile ale unui arbore, acestea fiind date de teorema de mai jos:

Teoremă. Dacă H este un graf neorientat finit, atunci următoarele afirmaţii sunt echivalente:

1) H este arbore;
2) H nu conţine cicluri şi, dacă se unesc printr-o muchie două noduri neadiacente, se
formează un ciclu (şi numai unul). Arborele este, deci, pentru o mulţime de noduri dată,
graful cu numărul maxim de arce astfel încât să se păstreze proprietatea că nu are cicluri);
3) H este conex şi dacă i se suprimă o muchie se creează două componente conexe (arborele
este graful conex cu numărul minim de arce);
4) H este conex şi are n-1 muchii;
5) H este fără cicluri şi are n-1 muchii;
6) Orice pereche de noduri este legată printr-un lanţ şi numai unul.

5.2. Algoritmi pentru găsirea arborelui de valoare optimă

Vom da mai jos trei algoritmi pentru determinarea unui graf parţial al grafului, care să fie
arbore şi pentru care suma valorilor arcelor sale să fie minimă (sau maximă).
Toţi algoritmii descrişi în continuare extrag arborele prin colectarea una câte una a muchiilor
acestuia.

A. Algoritmul lui Kruskal

Pasul 1. Dintre toate muchiile grafului se alege muchia de valoare minimă (maximă). Dacă
minimul este multiplu se alege la întâmplare una din muchiile respective. Deoarece acest
"la întâmplare" trebuie cumva tradus în limbajul calculatorului, în cazul implementării unui
program bazat pe acest algoritm, vom perturba din start valorile muchiilor, la k muchii cu
aceiaşi valoare V adunând respectiv valorile ε, 2ε, ... , kε, unde ε este foarte mic (în orice
caz, kε mai mic decât diferenţa dintre valoarea acestor arce si valoarea imediat superioară a
unui arc), pozitiv.
Pasul 2. Dintre toate muchiile rămase, se alege cea de valoare minimă (maximă);
Pasul 3. Dintre toate muchiile rămase, se alege cea de valoare minimă (maximă), astfel încât să nu
se formeze cicluri cu cele deja alese;
Pasul 4. Se reia algoritmul de la pasul 3 până se colectează n-1 muchii.

Deşi s-a demonstrat că algoritmul găseşte întotdeauna arborele optim, el are dezavantajul că
este foarte laborios (de fiecare dată trebuie calculat minimul unei mulţimi mari sau foarte mari –
există situaţii în practică în care graful are sute de mii de arce) şi, în plus, trebuie aplicat un algoritm
special ca să respectăm condiţia de a nu se forma cicluri, la alegerea unui nou arc.
O metodă posibilă este ca, după adăugarea fiecărui arc, să se împartă graful în componente
conexe şi să alegem apoi un arc care nu are ambele extremităţile în aceeaşi componentă conexă.
De asemenea este clar că, în cazul existenţei arcelor de valori egale, deoarece se alege la
întâmplare, există mai multe variante de evoluţie a alegerii arcelor. Totuşi, cu toate că pot fi mai
multe grafuri la care se poate ajunge prin acest algoritm, ele vor avea toate aceeaşi valoare (minima
(sau maxima) posibilă).
8
C. O variantă a algoritmului lui Kruskal

Pasul 1. Dintre toate muchiile grafului se alege cea de valoare minimă (maximă);
Pasul 2. Dintre toate muchiile adiacente componentei conexe formată din arcele alese până în acest
moment, se alege cea de valoare minimă (maximă);
Pasul 3. Se reia pasul 2 până se colecţionează n-1 muchii.

Algoritmul are toate avantajele algoritmului lui Sollin şi, în plus, lucrează cu o singură
componentă conexă, fiind mult mai uşor de implementat pe calculator şi mult mai rapid în execuţie.
Exemplu: Administraţia unei localităţi montane a hotărât construirea unor linii de teleferic
care să lege oraşul de cele 8 puncte turistice importante din jurul acestuia. În urma unui studiu au
fost puse în evidenţa toate posibilităţile şi costurile de conectare a obiectivele turistice între ele şi cu
oraşul, acestea fiind prezentate în figura 4.2.
Se cere găsirea variantei de construcţie de cost minim, care să asigure accesul din oraş la
oricare din obiectivele turistice.

P2
4 9
7
P1 8 8 P3
8 P4
2
5 7
3 9 4
O
3 3 8
P6 2 P5
5 7
6
8 P8
P7

Figura 4.2

Rezolvare

Condiţia de cost minim implică două obiective:


1. Să se construiască minimul de arce necesare;
2. Să se construiască cele mai ieftine legături.
Referitor la numărul de arce necesar, facem observaţia că, dacă din oraş se va putea ajunge
la orice obiectiv turistic, atunci se va putea ajunge şi de la orice staţiune la oricare alta (trecând prin
oraş), deci trebuie ca arcele alese pentru construcţie să formeze la un loc un graf conex.
În concluzie, căutăm un graf parţial conex cu un număr minim de arce, adică un arbore. În
plus, suma costurilor arcelor sale trebuie să fie minimă. Vom aplica pe rând cei trei algoritmi pentru
găsirea acestuia:

A. Kruskal

La primul pas poate fi ales unul din arcele OP3 sau OP7, ele având valoarea minimă 2. Putem
alege oricum primul arc dintre cele două pentru că la al doilea pas va fi ales celălalt.
La pasul trei poate fi ales unul din arcele OP5, OP6 sau P1P6 care au valoarea minimă 3. Nici
în acest caz nu are vre-o importanţă ordinea alegerii, deoarece pot fi alese succesiv toate trei fără a
se forma nici un ciclu.

9
Al şaselea arc poate fi ales dintre arcele P4P5 şi P1P2, care au valoarea minimă 4. Nici în
acest caz nu are vre-o importanţă ordinea alegerii, deoarece pot fi alese succesiv ambele, fără a se
forma nici un ciclu.
Următoarea valoare disponibilă a unui arc este 5, dar arcul opt nu poate fi ales dintre arcele
OP1, P6P7, deşi au valoarea minimă 5. Arcul OP1 nu poate fi ales deoarece s-ar forma ciclul OP1P6,
iar P6P7 ar duce la ciclul OP6P7. Următoarea valoare minimă este 6, pentru arcul P5P7 dar nu poate fi
ales deoarece se formează ciclul OP5P7.
Valoarea următoare, 7, o au arcele OP4, P2P3 şi P5P8. OP4 nu poate fi ales deoarece s-ar
forma ciclul OP5P4. Arcul P2P3 nu poate fi ales deoarece s-ar forma ciclul OP6P1P2P3. Arcul P5P8 nu
formează nici un ciclu şi el va fi al optulea arc ales. În acest caz, deoarece s-au adunat 8 arce într-un
graf cu 9 noduri, am obţinut graful căutat.
Acest arbore este reprezentat în figura 4.3.

P2
4

P1 P3
2 P4
3 4
O
3 3
P6 2 P5
7
P8
P7

Figura 4.3

B. Sollin

Vom alege: pentru nodul O → arcul OP3


pentru nodul P1 → arcul P1P6
pentru nodul P2 → arcul P1P2
pentru nodul P3 → arcul OP3
pentru nodul P4 → arcul P4P5
pentru nodul P5 → arcul OP5
pentru nodul P6 → arcul P1P6
pentru nodul P7 → arcul OP7
pentru nodul P8 → arcul P5P8

Rezultă graful parţial:


P2
4

P1 P3
2 P4
3 4
O
3
P6 2 P5 7
10
P8
P7

Figura 4.4
După cum se vede, s-au format două componente conexe: C1 = {P1,P2,P6}
C2 = {O,P3,P4,P5,P7,P8}.
Vom alege: pentru C1 → arcul OP6
pentru C2 → arcul OP6

şi obţinem o singură componentă conexă, care este arborele căutat.

C. Varianta algoritmului lui Kruskal

Succesiunea alegerii arcelor va fi:

1 → OP3
2 → OP7
3 → OP6
4 → OP5
5 → P1P6
6 → P1P2
7 → P4P5
8 → P5P8

6. Drumuri şi circuite hamiltoniene


Una dintre cele mai cunoscute probleme economice este problema comis voiajorului. Comis
voiajorul este un individ care trebuie să prezinte sau să distribuie marfa comandată la o serie de
centre distribuite în general neliniar pe o anumită zonă teritorială (localităţile dintr-un judeţ,
magazinele dintr-un cartier, persoanele dintr-un sat etc). Dacă numărul de obiective care trebuie
vizitate este mare sau foarte mare iar timpul disponibil foarte limitat atunci devine vitală o
asemenea organizare a trecerii pe la fiecare obiectiv încât să se efectueze în timpul minim posibil.
Acest timp minim se traduce prin drumul cel mai scurt, iar cel mai scurt drum este evident cel în
care se trece pe la fiecare obiectiv o singură dată. În plus, la sfârşit trebuie să se afle în punctul
iniţial, adică sediul firmei la care lucrează.
O reprezentare a regiunii aprovizionate, în care centrele pe la care se trece sunt vizualizate
prin puncte iar căile de acces la acestea prin segmente de curbe, va fi evident un graf, problema
reducându-se la a găsi circuitul hamiltonian de lungime minimă.
În timp, s-au evidenţiat o multitudine de probleme reductibile la găsirea unui drum (sau
circuit) hamiltonian într-un graf, cum ar fi:

1. Problema poştaşului (găsirea traseului cel mai scurt care trece pe la toate locuinţele ce
aparţin de oficiul poştal la care lucrează acesta);
2. Problema adunării deşeurilor (cel mai scurt drum care trece pe la toate punctele de
depozitate a deşeurilor);

11
3. Problema succesiunii operaţiilor (executarea mai multor operaţii pe o maşină în acea
ordine în care suma timpilor consumaţi cu pregătirea maşinii pentru trecerea de la o
operaţie la următoarea să fie minim)
4. Ordinea lipirii unor componente electronice pe o placă, etc;

Determinarea drumurilor hamiltoniene


Problema determinării drumului (circuitului) hamiltonian de valoare optimă s-a dovedit
deosebit de dificilă, neexistând nici acum un algoritm care să rezolve problema în timp polinomial
şi nici măcar o metodă simplă prin care să se decidă dacă într-un graf dat există sau nu drumuri
hamiltoniene.
Există însă mai mulţi algoritmi, unii exacţi alţii heuristici, care reuşesc, într-un caz sau altul,
să rezolve problema satisfăcător şi în timp util.

A. Algoritmul lui Foulkes


Pasul 1. Se scrie matricea booleană A asociată grafului G.

Pasul 2. Se determină matricea D a drumurilor grafului G prin procedeul expus la începutul


capitolului şi apoi matricea M = I + D.

Pasul 3. Se împarte mulţimea nodurilor grafului în submulţimi disjuncte astfel:

1. Se consideră în matricea M liniile pline (cu toate elementele 1). Nodurile ce corespund liniilor
pline cu 1 formează submulţimea C1.
2. Se elimină liniile şi coloanele care corespund nodurilor din submulţimea stabilită.
3. Se reia raţionamentul de la punctul 1 pe matricea redusă obţinută la punctul 2 obţinându-se
următoarea submulţime şi în continuare toate celelalte până se epuizează toate liniile matricei.

Pasul 4. Se construieşte graful G' în care:

1. Nodurile care formează o submulţime sunt reprezentate prin puncte în interiorul unui
dreptunghi şi între acestea se trasează arcele existente în graful iniţial G.
2. Se trasează legăturile dintre submulţimi. Ele sunt reprezentate prin arcele existente în
graful iniţial G între nodurile submulţimii C1 şi cele ale submulţimii C2, între nodurile
submulţimii C2 şi cele ale submulţimii C3 etc.

Pasul 5. Se găsesc drumurile hamiltoniene

Un drum hamiltonian se găseşte plecând de la un vârf din submulţimea C1, trecând prin toate
vârfurile acesteia cu un drum hamiltonian, din ultimul vârf la care se ajunge în C1 trecând la un vârf
din C2, parcurgând în continuare un drum hamiltonian în a doua submulţime şi tot aşa, trecând prin
toate submulţimile şi parcurgând, deci, toate nodurile grafului iniţial, o singură dată. Aplicând acest
procedeu în toate modurile posibile se obţin toate drumurile hamiltoniene din graful iniţial G.
(Observaţie: poate să nu existe nici un drum hamiltonian în graful G, caz în care algoritmul se
opreşte deoarece la un anumit pas nu mai exista nici o linie plina cu 1).

Observaţie. Algoritmul lui Foulkes reduce găsirea drumurilor hamiltoniene în graful iniţial
G (care în problemele practice este foarte mare) la găsirea mai multor drumuri hamiltoniene mai
mici în componente tare conexe ale grafului. Dacă un graf are o singură componentă tare conexă,
12
algoritmul lui Foulkes nu este eficient, în acest caz trebuind aplicaţi alţi algoritmi cum ar fi cel bazat
pe înmulţirea latină.

B. Algoritmul lui Chen pentru determinarea drumurilor hamiltoniene


în grafuri fără circuite

Fie G = (X,U) un graf orientat fără circuite, cu n noduri: X = {x1, x2, … , xn}. Vom
considera că am calculat matricea drumurilor D şi puterile de atingere ale tuturor nodurilor.
Dacă în graful G există un drum de la nodul xi la nodul xj atunci evident p(xi) > p(xj),
deoarece în orice vârf în care se poate ajunge din xj se poate ajunge şi din xi dar din xj nu se poate
ajunge în xj pentru că nu există circuite.

Teorema 2.3 (Chen) Un graf cu n noduri, fără circuite conţine un drum hamiltonian dacă şi
numai dacă există relaţia:

n
n (n − 1)
∑ p(x i ) = 2
i =1

Teorema 2.4 Dacă într-un graf orientat fără circuite există un drum hamiltonian atunci
acesta este unic.

Pe aceste teoreme se bazează algoritmul lui Chen de determinare a drumului hamiltonian


într-un graf orientat fără circuite:

Pasul1. Se scrie matricea de adiacenţă A


Pasul2. Se calculează matricea drumurilor D
Pasul3. Dacă există un indice i cu dii = 1 atunci graful are circuite, nu se poate aplica algoritmul
lui Chen şi algoritmul se opreşte. Dacă nu, se trece la pasul 4.
Pasul4. Se calculează puterile de atingere pentru fiecare nod.
n
n (n − 1)
Pasul5. Dacă nu se verifică relaţia ∑ p(x i ) = 2
atunci graful nu are drumuri hamiltoniene
i =1
şi algoritmul se opreşte, altfel se trece la pasul 6.
Pasul6. Se ordonează nodurile în ordinea descrescătoare a puterilor lor de atingere şi obţinem
drumul hamiltonian căutat.

C. Algoritmul lui Kaufmann

Pasul 1. Construim matricea latină L asociată grafului, unde:

⎧x i x j daca exista arcul (x i , x j )


( (
daca nu exista arcul (x i , x j )
lij = ⎨ ( (
⎩0
~
Pasul 2. Construim matricea L , definită prin:
~ ⎧x j daca exista arcul (x i , x j )
( (

⎩0 daca nu exista arcul (x i , x j )


lij = ⎨ ( (

numită matricea latină redusă.


13
Pasul 3. Se calculează succesiv matricile:
~ ~ ~
L2 = L × L L , L3 = L2 × L L , ..., Lk+1 = Lk × L L , ...

folosind operaţiile de înmulţire şi adunare latină, alfabetul fiind mulţimea nodurilor grafului, unde
operaţia de înmulţire este uşor modificată, produsul dintre două elemente ale matricilor fiind 0, dacă
unul dintre ele este 0 sau au un nod comun, şi este produsul latin al lor, în caz contrar.
Din felul cum a fost construită, matricea Lk va conţine toate drumurile elementare de
lungime k. Cum un drum elementar poate avea cel mult n noduri (câte are graful cu totul) rezultă
că:
− primele n-1 puteri ale L conţin toate drumurile elementare din graf;
− puterile lui L mai mari sau egale cu n au toate elementele egale cu 0;
− matricea Ln-1 conţine toate drumurile hamiltoniene din graf.

Pasul 4. Dacă se doresc şi circuitele atunci se verifică pentru fiecare drum hamiltonian dacă poate
fi completat până la un circuit (adică dacă există în graf arcul care uneşte nodul final cu cel
iniţial);
Pasul 5. Dacă se doreşte şi drumul (sau circuitul) de valoare optimă (maximă sau minimă) se
calculează suma valorilor pentru fiecare drum şi/sau circuit şi se alege cel cu valoarea
optimă.

În concluzie, metoda înmulţirii latine (A. Kaufmann – J. Melgrange) determină toate


drumurile elementare din graf, prin calcularea matricelor M(1), M(2), M(3), …, M(n-1).
În matricea M(n-1) se citesc drumurile hamiltoniene.
Această metodă a înmulţirii latine (algoritmul lui Kaufmann) este utilă, mai ales, în cazul
grafurilor tare conexe, unde algoritmul lui Foulkes nu este eficient. Totuşi, metoda este greu de
aplicat în grafuri cu un număr mare de noduri. În acest caz este preferabil să se construiască graful
condensat, să se determine drumurile hamiltoniene în fiecare în parte cu algoritmul lui Kaufmann şi
apoi, ca la algoritmul lui Foulkes, să se caute drumurile hamiltoniene în graful iniţial.

7. Drumuri optime într-un graf

În marea majoritate a problemelor care pot fi modelate prin grafuri nu ne interesează numai
dacă există sau nu legături între componentele reprezentate prin nodurile grafului ci şi intensitatea
acestora. Această intensitate are semnificaţia unei valori numerice (pozitive sau negative) asociate
arcului corespunzător legăturii a cărei intensitate o măsoară.
În aplicaţiile economice această valoare poate fi:

− lungimea drumului dintre două localităţi;


− costul parcurgerii rutei reprezentate prin arcul corespunzător;
− durata parcurgerii rutei respective;
− cantitatea transportată pe ruta respectivă;
− capacitatea maximă a rutei respective;
− câştigul realizat prin trecerea de la o stare la alta a sistemului;
− consum de energie pentru efectuarea trecerii respective;
− punctaj realizat etc.

14
Una din problemele care poate apărea în aceste situaţii este găsirea, pentru o anumită
pereche de noduri (sau mai multe perechi), a drumului optim între acestea.
Pentru formalizarea problemei vom introduce noţiunea de valoare a unui drum, care este
egală cu suma valorilor arcelor care îl compun. Vom nota în continuare valoarea unui arc (xi,xj) cu
v(xi,xj) sau cu vij. În aceste condiţii putem enunţa problema drumului optim astfel:
"Dat fiind un graf G = (X,U) şi o funcţie care asociază fiecărui arc o valoare reală, să se
găsească, pentru o pereche dată de noduri, drumul (drumurile) de valoare optimă (minimă sau/şi
maximă) între cele două noduri şi valoarea acestuia (acestora)"
Deoarece este vorba de găsirea minimului unei mulţimi de numere reale, prima întrebare
care se pune este dacă aceasta admite minim. Dacă mulţimea nodurilor grafului este infinită atunci
pot exista o infinitate de drumuri elementare distincte între cele două noduri şi mulţimea valorilor
acestora poate avea orice formă (închisă sau nu, mărginită sau nu) devenind foarte greu de
caracterizat cazurile când minimul dorit există. Deoarece totuşi majoritatea covârşitoare a
problemelor economice se modelează prin grafuri cu număr finit de noduri, ne vom limita în
continuare doar la acestea.
Un număr finit de noduri n atrage după sine existenţa unui număr finit de arce (cel mult n2)
n -1

∑ k! ). Deoarece oricărui drum d îi


1
şi a unui număr finit de drumuri elementare ( cel mult n⋅n!⋅
k =1
corespunde un drum elementar de (obţinut prin eliminarea tuturor subcircuitelor lui d) putem calcula
valoarea oricărui drum ca sumă între valoarea drumului elementar corespunzător şi valorile unor
subcircuite ale sale, fiecare înmulţită cu numărul de parcurgeri ale circuitului respectiv.
În concluzie, dacă există un circuit de valoare negativă înseamnă că există drumuri de
valoare oricât de mică (cele care conţin acest circuit), obţinută prin parcurgerea acestuia de oricâte
ori dorim) şi, deci, mulţimea valorilor drumurilor este nemărginită inferior, neexistând drum de
valoare minimă. Dacă există un circuit de valoare pozitivă atunci există drumuri de valoare oricât de
mare şi mulţimea valorilor drumurilor este nemărginită superior, neexistând drum de valoare
maximă.
Dacă nu există circuite de valoare negativă atunci valoarea oricărui drum este mai mare sau
egală cu a drumului elementar corespunzător, deci drumul de valoare minimă (dacă există) va fi un
drum elementar. Cum mulţimea drumurilor elementare este finită (şi deci şi mulţimea valorilor lor)
va avea minorant şi am lămurit problema compatibilităţii problemei. Analog, dacă nu există circuite
de valoare pozitivă atunci valoarea oricărui drum este mai mică sau egală cu a drumului elementar
corespunzător, deci drumul de valoare maximă (dacă există) va fi un drum elementar. Cum
mulţimea drumurilor elementare este finită (şi deci şi mulţimea valorilor lor), va avea majorant.
Obs. 1. Dacă în graf nu există decât arce de valoare pozitivă atunci există drum de valoare
minimă.
Obs. 1. Dacă în graf nu există decât arce de valoare negativă atunci există drum de valoare
maximă.
Obs. 1. Dacă în graf nu există circuite atunci există şi drum de valoare minimă şi drum de
valoare maximă.
Deoarece din cele de mai sus se sesizează importanţa existenţei circuitelor într-un graf vom
da în continuare un algoritm de depistare a existenţei circuitelor într-un graf:

Pasul 1. Se construieşte mulţimea A formată din nodurile pentru care toate arcele incidente sunt
incidente spre interior ( noduri în care toate arcele "intră" sau, altfel spus, noduri din care
nu "pleacă" nici un arc).
Pasul 2. Se găsesc toate nodurile care nu sunt din A pentru care toate arcele incidente au cealaltă
extremitate în A (noduri din care se poate "ajunge" doar in A). Dacă nu există nici un
astfel de arc se trece la pasul 4.

15
Pasul 3. Se adaugă arcele găsite la pasul 2 la mulţimea A apoi se reia algoritmul de la pasul 2,
pentru noua mulţime A.
Pasul 4. Dacă A conţine mulţimea tuturor nodurilor atunci graful nu conţine circuite. Dacă au
rămas noduri în afara lui A atunci graful conţine circuite.

Algoritmi de găsire a drumului optim


Din cauza varietăţii nelimitate a grafurilor posibile, nu există un algoritm care să rezolve
orice problemă în timp util, dar s-au elaborat o mulţime de algoritmi, fiecare fiind cel mai eficace în
anumite cazuri. Aceşti algoritmi pot fi grupaţi în cinci categorii:

1. Algoritmi prin calcul matricial (Bellman-Kalaba, I. Tomescu, Bellman-Schimbell);


2. Algoritmi prin ajustări succesive: (Ford);
3. Algoritmi prin inducţie (Dantzig);
4. Algoritmi prin ordonare prealabilă a vârfurilor grafului;
5. Algoritmi prin extindere selectivă (Dijkstra).

În continuare vom prezenta trei dintre aceşti algoritmi.

A. Algoritmul lui Bellman - Kalaba

Algoritmul se aplică în grafuri finite care nu au circuite de valoare negativă (pentru o


problemă de minim) sau care nu au circuite de valoare pozitivă (într-o problemă de maxim) şi
găseşte drumurile de valoare minimă (maximă) de la toate nodurile grafului la un nod oarecare,
fixat. Dacă dorim să cunoaştem drumurile de valoare minimă (maximă) între oricare două noduri
vom aplica algoritmul, pe rând, pentru fiecare nod al grafului.
Fie G = {x1, x2, ... ,xn} un graf orientat finit. Presupunem (fără a restrânge generalitatea, că
am numerotat nodurile astfel încât nodul spre care căutăm drumurile de valoare minimă (maximă)
de la celelalte noduri să fie xn.

Pasul 1. Se construieşte matricea pătratică M cu dimensiunea egală cu numărul de noduri ale


grafului ale cărei elemente sunt:

⎪ valoarea arcului (x i , x j ) daca exista arcul (x i , x j ) si i ≠ j
⎪⎪
mij = ⎨0 daca i = j

⎪ + ∞ (într - o problema de minim) ⎫ daca nu exista arcul (x , x )
⎪⎩− ∞ (într - o problema de maxim)⎬⎭ i j

Pasul 2. Se adaugă succesiv liniile Li la matricea M, elementele acestora calculându-se prin


relaţiile de recurenţă:
1. L1j = mjn j = 1,...,n (prima linie este ultima coloană, transpusă, a matricii M)
2. Lij = min (Li-1,j , min (mjk + Li-1,k)) într-o problemă de minim
k =1, n
sau Lij = max (Li-1,j , max (mjk + Li-1,k)) într-o problemă de maxim
k =1, n

Pasul 3. După calcularea fiecărei linii noi se compară elementele ei cu cele ale precedentei:
− Dacă Lij = Li-1,j pentru orice j = 1,...,n atunci se opreşte recurenţa şi ultima linie
calculată conţine valorile minime ale drumurilor de la celelalte noduri la nodul xn.
16
− Dacă există cel puţin un indice j cu Lij ≠ Li-1,j se trece la calcularea noii linii Li+1

Pasul 4. Pentru găsirea drumului care dă valoarea minimă de la un nod xj la nodul xn se găsesc,
începând înapoi de la ultima linie, pe care s-au obţinut valorile finale, notată Lf, nodurile
x k1 , x k 2 , ..., x k r care formează drumul căutat, unde x k1 = xj, x k r = xn şi fiecare alt indice
ki+1 este cel pentru care s-a obţinut minimul(maximul) de pe poziţia ki al liniei Li.

Observaţie: Pentru grafuri foarte mari, algoritmul necesită un volum mare de memorie, prin
necesitatea memorării matricei M, care este greu de manipulat. Chiar dacă din cele n2 arce posibile
graful ar avea doar un procent foarte mic matricea grafului va avea tot n2 poziţii de memorat şi
analizat.
Exemplu: Presupunem dat graful orientat de mai jos, în care se doreşte găsirea drumului de valoare
minimă de la nodul x1 la nodul x9.

x2
4 9
7
x1 8 8 x3
3 x4
2
5 7
3 9 4
3 x5 3
9
x6 x8
2 7
5 6
8 x9
x7
⎛0 4 ∞ ∞ 5 ∞ ∞ ∞ ∞⎞
⎜∞ 0 7 9 ∞ ∞ ∞ ∞ ∞⎟
⎜∞ ∞ 0 3 ∞ ∞ ∞ ∞ 9⎟
⎜∞ ∞ ∞ 0 ∞ ∞ ∞ ∞ 3⎟
Matricea M va fi ⎜ ∞ 8 2 7 0 3 2 9 ∞⎟
⎜∞ 8 ∞ ∞ ∞ 0 5 ∞ ∞⎟
⎜∞ ∞ ∞ ∞ ∞ ∞ 0 6 8⎟
⎜⎜ ∞ ∞ ∞ 4 ∞ ∞ ∞ 0 7⎟
⎝∞ ∞ ∞ ∞ ∞ ∞ ∞ ∞ 0 ⎟⎠

iar după calcularea liniilor Li obţinem:

x1 x2 x3 x4 x5 x6 x7 x8 x9
x1 0 4 ∞ ∞ 5 ∞ ∞ ∞ ∞
x2 ∞ 0 7 9 ∞ ∞ ∞ ∞ ∞
x3 ∞ ∞ 0 3 ∞ ∞ ∞ ∞ 9
x4 ∞ ∞ ∞ 0 ∞ ∞ ∞ ∞ 3
x5 ∞ 8 2 7 0 3 2 9 ∞
x6 ∞ 8 ∞ ∞ ∞ 0 5 ∞ ∞
x7 ∞ ∞ ∞ ∞ ∞ ∞ 0 6 8
x8 ∞ ∞ ∞ 4 ∞ ∞ ∞ 0 7
x9 ∞ ∞ ∞ ∞ ∞ ∞ ∞ ∞ 0
17
L1 ∞ ∞ 9 3 ∞ ∞ 8 7 0
L2 ∞ 12 6 3 10 13 8 7 0
L3 15 12 6 3 8 13 8 7 0
L4 13 12 6 3 8 13 8 7 0
L5 13 12 6 3 8 13 8 7 0

Deoarece L4 = L5 oprim calcularea liniilor după calcularea liniei 5. În această linie se află
valorile celor mai scurte de la toate nodurile la nodul x9. Drumul dorit de noi (x1 → x9) are valoarea
dată de prima poziţie a liniei 5, fiind egal cu 13.
Pentru a găsi acest drum, plecăm înapoi de la linia 4 şi avem:
x1 x5
↑ ↑
13 = 8 + 5 x3
⇓ ↑
8 = 6 + 2 x4
⇓ ↑
6 = 3 + 3

3 → x9

B. Algoritmul lui Ford simplificat

Algoritmul lui Ford simplificat se aplică doar în grafuri care nu admit circuite. Cu ajutorul
lui se găseşte drumul de valoare optimă între două noduri fixate xi şi xj. Printr-o eventuală
renumerotare a nodurilor putem presupune că nodul de la care porneşte drumul este x1, care va fi
numit nod iniţial, iar nodul la care se termină este xn, numit nod final.
Algoritmul este:

Pasul 1. I se dă vârfului iniţial valoarea 0 (zero): w(x0) = 0


Pasul 2. Se construieşte mulţimea A formată din nodul iniţial: A = {x1}
Pasul 3. Se analizează nodurile din afara mulţimii A.
− Dacă există noduri în care se poate ajunge prin arce directe doar de la nodurile
mulţimii A, acestea se adaugă la mulţimea A, cu valoarea:
w(xi) = min (w (x j ) + v (x j , x i )) , în problemele de minim
xj
(
∃ x j ,x i )
sau w(xi) = max (w (x j ) + v (x j , x i )) , în problemele de maxim
xj
(
∃ x j ,x i )
apoi se trece la pasul 4
− Dacă nu există nici un nod de acest tip atunci nu există nici un drum de la x1 la xn.
STOP

Pasul 4. Se analizează mulţimea A:


− Dacă xn ∈ A atunci valoarea sa reprezintă valoarea drumului de valoare optimă de la
x1 la xn. Pentru găsirea acestui drum se porneşte înapoi de la nodul final xn şi se
găsesc nodurile x k1 , x k 2 , ..., x k r care formează drumul căutat, unde x k1 = xn, x k r =
x1 şi fiecare alt indice ki+1 este cel pentru care:

w( x k i +1 ) + v( x k i +1 , x k i ) = w( x k i ) STOP
18
− Dacă xn ∉ A se reia algoritmul de la pasul 3.

Exemplu: Pentru acelaşi graf şi aceeaşi pereche de noduri din exemplul rezolvat cu algoritmul lui
Bellman-Kalaba vom avea succesiv:

pas1: w(x1) = 0
pas2: A = {x1}
pas3: Nodurile în care se poate ajunge doar din x1: {x5} ≠ ∅
w{x5) = min( w(x1) + v(x1,x5)) = 0 + 5 = 5
pas4: x9 ∉ A
pas3: A = {x1,x5} şi nodurile în care se poate ajunge prin arce directe doar din x1 şi x5 sunt: {x6}≠ ∅
w{x6) = min( w(x1) + v(x1,x6), w(x5) + v(x5,x6)) = min(0 + 3 , 5 + 3) = 3
pas4: x9 ∉ A
pas3: A = {x1,x5,x6} şi nodurile în care se poate ajunge prin arce directe doar din x1, x5 şi x6 sunt:
{x2,x7} ≠ ∅
w{x2) = min( w(x1) + v(x1,x2), w(x5) + v(x5,x2), w(x6) + v(x6,x2)) = min(0 + 4,5 + 8,3 + 8) = 4
w{x7) = min( w(x5) + v(x5,x7), w(x6) + v(x6,x7)) = min(5 + 2,3 + 5) = 7
pas4: x9 ∉ A
pas3: A = {x1,x2,x5,x6,x7} şi nodurile în care se poate ajunge prin arce directe doar din x1, x2, x5, x6
şi x7 sunt: {x3,x8} ≠ ∅
w{x3) = min( w(x2) + v(x2,x3), w(x5) + v(x5,x3)) = min(4 + 7,5 + 2) = 7
w{x8) = min( w(x5) + v(x5,x8), w(x7) + v(x7,x8)) = min(5 + 9,7 + 6) = 13
pas4: x9 ∉ A
pas3: A = {x1,x2,x3,x5,x6,x7,x8} şi nodurile în care se poate ajunge prin arce directe doar din x1,
x2,x3,x5, x6, x7 şi x8 sunt: {x4} ≠ ∅
w{x4) = min( w(x2) + v(x2,x4), w(x3) + v(x3,x4),w(x5) + v(x5,x4), w(x8) + v(x8,x4)) = min(4 +
9,7 + 3,5 + 7,13 + 4) = 10
pas4: x9 ∉ A
pas3: A = {x1,x2,x3,x4,x5,x6,x7,x8} şi nodurile în care se poate ajunge prin arce directe doar din x1,
x2, x3, x4, x5, x6, x7 şi x8 sunt: {x9} ≠ ∅
w{x9) = min( w(x3) + v(x3,x9), w(x4) + v(x4,x9), w(x7) + v(x7,x9), w(x8) + v(x8,x9)) = min(7 +
9, 10 + 3, 7 + 8, 13 + 7) = 13
pas4: x9 ∈ A şi urmează să găsim drumul care are lungimea 13.
Avem succesiv:
w(x9) = w(x4) + v(x4,x9)
w(x4) = w(x3) + v(x3,x4)
w(x3) = w(x5) + v(x5,x3)
w(x5) = w(x1) + v(x1,x5)
deci drumul căutat este: x1 → x5 → x3 → x4 → x9

Observaţia 1. Dacă graful are un circuit atunci se poate demonstra uşor că nu vom putea da
valoare nici unui nod al acestuia şi dacă există vreun drum de la x1 la xn care trece prin unul din
nodurile circuitului nu vom putea da valoare nici lui xn, cu toate că există drum de la x1 la xn.
Observaţia 2: Algoritmul necesită pentru memorare şi manipulare doar cunoaşterea, pentru
fiecare nod, a nodurilor spre care "pleacă" arce din acesta şi valorile acestor arce, fiind mult mai
uşor de aplicat sau implementat pe calculator. El are însă dezavantajul că se poate aplica doar în
grafuri fără circuite.

C. Algoritmul Ford generalizat

19
Algoritmul lui Ford generalizat a fost creat cu scopul de a putea găsi drumul optim şi în
grafurile care au circuite. Cu ajutorul lui se găseşte drumul de valoare optimă între două noduri
fixate xi şi xj. Printr-o eventuală renumerotare a nodurilor putem presupune că nodul de la care
porneşte drumul este x1, care va fi numit nod iniţial, iar nodul la care se termină este xn, numit nod
final.
Algoritmul este:

Pasul 1. I se dă vârfului iniţial valoarea 0 (zero): w(x0) = 0 şi tuturor celelalte valoarea +∞ (într-o
problemă de minim) sau -∞ (într-o problemă de maxim).
Pasul 2. În ordinea crescătoare a indicilor nodurilor se calculează pentru fiecare nod, pe bază
fostelor valori, noile valori cu formula:
⎛ ⎞
⎜ ⎟
w (xi) = min⎜ w (x i ), min (w (x j ) + v (x j , x i ))⎟ în problemele de minim
*

⎜ ⎟
xj
⎝ ∃(x j , x i ) ⎠
⎛ ⎞
⎜ ⎟
sau w (xi) = max ⎜ w (x i ), max (w (x j ) + v (x j , x i ))⎟ în problemele de maxim
*

⎜ ⎟
xj
⎝ ∃(x j , x i ) ⎠
*
Pasul 3. Se compară noile valori w (xi) cu fostele valori w(xi):
− Dacă w*(xi) = w(xi) pentru orice nod xi atunci:
− dacă w(xn) < ∞ (la problema de minim) sau w(xn) > -∞ (la problema de maxim),
valoarea nodului xn reprezintă valoarea drumului de valoare minimă(maximă) de
la x1 la xn. Pentru găsirea acestui drum se porneşte înapoi de la nodul final xn şi
se găsesc nodurile x k1 , x k 2 , ..., x k r care formează drumul căutat, unde x k1 = xn,
x k r = x1 şi fiecare alt indice ki+1 este cel pentru care:
w( x k i +1 ) + v( x k i +1 , x k i ) = w( x k i ) STOP
− dacă w(xn) = +∞ (-∞) atunci nu există nici un drum de la x1 la xn. STOP
− Dacă există cel puţin un nod pentru care w*(xi) < w(xi) se reia algoritmul de la pasul
2 pentru noile valori ale vârfurilor.

Observaţie: Algoritmul poate găsi drumul şi în grafuri cu circuite dar este evident mult mai
lent decât cel simplificat. Pentru scurtarea duratei de execuţie se poate modifica algoritmul în sensul
că o valoare nou calculată a unui vârf va fi folosită imediat ca atare la calculul noilor valori ale
celorlalte, nu doar după ce se calculează noile valori ale tuturor vârfurilor.

D. Algoritmul lui Dijkstra

În algoritmul Ford simplificat, pentru a găsi valoarea nodului final, deci a drumului minim,
plecăm de la nodul iniţial în toate direcţiile posibile, păstrând de fiecare dată toate nodurile
analizate. Acest fapt duce la un consum inutil de timp, deoarece foarte multe din aceste noduri nu
vor face parte din drumul optim. Pentru a elimina acest neajuns, algoritmul lui Dijkstra încearcă să
păstreze, la fiecare iteraţie, mulţimea minimă de noduri care să le conţină pe toate cele care vor
forma efectiv drumul optim. În plus, algoritmul se poate aplica şi în drumuri cu circuite. Ca un
minus este faptul că se aplică doar la probleme de minim. Algoritmul are următorii paşi:

Pasul 1. I se dă vârfului iniţial valoarea 0 (zero): w(x0) = 0


Pasul 2. Se construieşte mulţimea A formată din nodul iniţial: A = {x1}
Pasul 3. Se analizează nodurile din afara mulţimii A.
20
− Dacă există noduri în care se poate ajunge prin arce directe de la noduri din A
(nu doar de la nodurile mulţimii A, ca la algoritmul lui Ford simplificat) se
calculează pentru toate acestea:
w(xi) = min (w (x j ) + v (x j , x i )) în problemele de minim
x j∈A
(
∃ x j ,x i )
dar, spre deosebire de algoritmul lui Ford simplificat, se adaugă la mulţimea A doar
cel pentru care se obţine valoarea minimă, apoi se trece la pasul 4.
− Dacă nu există nici un nod de acest tip atunci nu există nici un drum de la x1 la xn.
STOP

Pasul 4. Se analizează mulţimea A:


− Dacă xn ∈ A atunci valoarea sa reprezintă valoarea drumului de valoare optimă de la
x1 la xn. Pentru găsirea acestui drum se porneşte înapoi de la nodul final xn şi se
găsesc nodurile x k1 , x k 2 , ..., x k r care formează drumul căutat, unde x k1 = xn, x k r =
x1 şi fiecare alt indice ki+1 este cel pentru care:

w( x k i +1 ) + v( x k i +1 , x k i ) = w( x k i ) STOP
− Dacă xn ∉ A se reia algoritmul de la pasul 3.

Exemplu Vom aplica algoritmul la acelaşi graf folosit la ceilalţi algoritmi, pentru a putea
face comparaţii:

pas1: w(x1) = 0
pas2: A = {x1}
pas3: Nodurile în care se poate ajunge şi din x1: {x2, x5, x6} ≠ ∅
w{x2) = min( w(x1) + v(x1,x2)) = 0 + 4 = 4
w{x5) = min( w(x1) + v(x1,x5)) = 0 + 5 = 5
w{x6) = min( w(x1) + v(x1,x6)) = 0 + 3 = 3
min(w{x2),w{x5),w{x6)) = w{x6) = 3
pas4: x9 ∉ A
pas3: A = {x1,x6} şi nodurile în care se poate ajunge prin arce directe din x1 sau x6 sunt:
{x2,x5,x7}≠∅
w{x2) = min( w(x1) + v(x1,x2), w(x6) + v(x6,x2)) = min(0 + 4 , 3 + 8) = 4
w{x5) = min( w(x1) + v(x1,x5)) = min(0 + 5) = 5
w{x7) = min( w(x6) + v(x6,x7)) = min(3 + 5) = 8
min(w{x2),w{x5),w{x7)) = w{x2) = 4
pas4: x9 ∉ A
pas3: A = {x1,x2,x6} şi nodurile în care se poate ajunge prin arce directe din x1, x2 sau x6 sunt:
{x3,x4,x5,x7} ≠ ∅
w{x3) = min( w(x2) + v(x2,x3)) = min(4 + 7) = 11
w{x4) = min( w(x2) + v(x2,x4)) = min(2 + 9) = 11
w{x5) = min( w(x1) + v(x1,x5)) = min(0 + 5) = 5
w{x7) = min( w(x6) + v(x6,x7)) = min(3 + 5) = 0
min(w{x3),w{x4),w{x5),w{x7)) = w{x5) = 5
pas4: x9 ∉ A
pas3: A = {x1,x2,x5,x6} şi nodurile în care se poate ajunge prin arce directe din x1, x2, x5, x6 şi x7
sunt: {x3,x4,x7,x8} ≠ ∅
w{x3) = min( w(x2) + v(x2,x3), w(x5) + v(x5,x3)) = min(4 + 7,5 + 2) = 7
w{x4) = min( w(x2) + v(x2,x4), w(x5) + v(x5,x4)) = min(4 + 9,5 + 7) = 12
21
w{x7) = min( w(x5) + v(x5,x7), w(x6) + v(x6,x7)) = min(5 + 2,3 + 5) = 7
w{x8) = min( w(x5) + v(x5,x8)) = min(5 + 9) = 14
min(w{x3),w{x4),w{x7),w{x8)) = w{x3) = w{x7) = 7
pas4: x9 ∉ A
pas3: A = {x1,x2,x3,x5,x6,x7} şi nodurile în care se poate ajunge prin arce directe din x1, x2, x3, x5, x6,
şi x7 sunt: {x4,x8,x9} ≠ ∅
w{x4) = min( w(x2) + v(x2,x4), w(x3) + v(x3,x4),w(x5) + v(x5,x4)) = min(4 + 9,7 + 3,5 + 7) =10
w{x8) = min( w(x5) + v(x5,x8), w(x7) + v(x7,x8)) = min(5 + 9,7 + 6) = 13
w{x9) = min( w(x3) + v(x3,x9), w(x7) + v(x7,x9)) = min(7 + 9,7 + 8) = 15
min(w{x4),w{x8),w{x9)) = w{x4) = 10
pas4: x9 ∉ A
pas3: A = {x1,x2,x3,x4,x5,x6,x7} şi nodurile în care se poate ajunge prin arce directe din x1, x2, x3, x4,
x5, x6, şi x7 sunt: {x8,x9} ≠ ∅
w{x9) = min( w(x3) + v(x3,x9), w(x4) + v(x4,x9), w(x7) + v(x7,x9)) = min(7 + 9,10 + 3,7+8)=13
w{x8) = min( w(x5) + v(x5,x8), w(x7) + v(x7,x8)) = min(5 + 9,7 + 6) = 13
min(w{x8),w{x9)) = w{x8) = w{x9) = 13
pas4: x9 ∈ A şi urmează să găsim drumul care are lungimea 13.
Avem succesiv:
w(x9) = w(x4) + v(x4,x9)
w(x4) = w(x3) + v(x3,x4)
w(x3) = w(x5) + v(x5,x3)
w(x5) = w(x1) + v(x1,x5)
deci drumul căutat este: x1 → x5 → x3 → x4 → x9
8. Reţele de transport
Într-o mare varietate de situaţii concrete din practica economică se pune problema deplasării
unei cantităţi de materie, energie, informaţie etc, din anumite locuri, numite surse, în alte locuri,
numite destinaţii. Pentru realizarea acestui transport se folosesc o serie de trasee, numite rute de
legătură. Unităţile indivizibile ale cantităţii Q, care se deplasează de-a lungul rutelor între surse şi
destinaţii, se numesc unităţi de flux, iar ansamblul rutelor, surselor, destinaţiilor şi, eventual, a
altor puncte intermediare se numeşte reţea de transport.
Situaţia de mai sus poate fi reprezentată geometric printr-un graf finit, conex şi fără bucle.
Pentru ca o astfel de problemă să fie suficient de complexă pentru a necesita un studiu
matematic riguros, trebuie ca fiecare sursă să poată aproviziona mai multe destinaţii şi orice
destinaţie să poată fi aprovizionată de mai multe surse.
Aprovizionarea destinaţiilor se poate face direct de la surse sau prin intermediul altor
puncte, numite puncte intermediare. În cazul cel mai general pot exista de asemenea legături între
surse şi/sau legături între destinaţii.
Aşa cum s-a văzut şi la problema de transport, situaţia de mai sus este un cadru extrem de
larg, care permite existenţa unui număr foarte mare de tipuri de probleme posibile, diferite între ele
prin informaţiile suplimentare pe care le avem despre reţea şi prin obiectivele urmărite.
Una dintre acestea este problema determinării cantităţii maxime (minime) care poate fi
transportată de la surse la destinaţii, în situaţia în care sursele dispun de cantităţi limitate (inferior
sau superior), destinaţiile au un necesar sau o putere de absorbţie limitată inferior sau superior iar pe
fiecare rută se poate transporta doar o cantitate cuprinsă între anumite limite.
Pentru studiul matematic al acestei situaţii vom da definiţiile matematice ale obiectelor
implicate în problemă şi ipotezele modelului.

Definiţia 1: Se numeşte reţea de transport standard un graf finit, simplu, conex, fără bucle
G = (X,U) care are următoarele proprietăţi:

22
+
1. Există şi este unic s ∈ X a.î. U s ≠ ∅, U s− = ∅ (din care doar "ies" arce), numit
intrarea reţelei de transport;
− +
2. Există şi este unic t ∈ X a.î. U t = ∅, U t ≠ ∅ (în care doar "intră" arce) numit
ieşirea reţelei de transport;
3. S-a definit o funcţie c: U → R+ care asociază fiecărui arc u un număr strict
pozitiv cu numit capacitatea arcului.

Observaţie: Este clar că exemplele obişnuite au doar rareori o singură sursă şi o singură destinaţie.
Totuşi, printr-o tehnică foarte simplă, orice reţea de transport se poate aduce la forma standard:
1. Dacă sunt mai multe surse se introduce un nod suplimentar din care "pleacă" câte
un arc spre fiecare sursă (şi numai spre acestea), iar capacităţile acestor arce vor fi
egale cu disponibilurile surselor corespunzătoare;
2. Dacă sunt mai multe destinaţii se introduce un nod suplimentar spre care "pleacă"
câte un arc din fiecare destinaţie (şi numai din acestea), iar capacităţile acestor arce
vor fi egale cu necesarurile destinaţiilor corespunzătoare;

Definiţia 2: Se numeşte flux într-o reţea de transport R = (X,U) o funcţie ϕ: U → R+ care


are următoarele proprietăţile:
P1. 0 ≤ ϕu ≤ cu oricare ar fi u din U; valoarea ϕu se numeşte flux al arcului u
P2. ∑ ϕ u = ∑ ϕ u oricare ar fi i ≠ s,t (suma fluxurilor arcelor care "intră" într-
u ∈ U i+ u ∈ U i−

un nod i este egală cu suma fluxurilor arcelor care "ies" din acest nod, cu excepţia
nodului iniţial şi al celui final.

Definiţia 3: Se numeşte valoare a fluxului suma fluxurilor arcelor care "pleacă" din nodul
iniţial s şi se notează cu Φ.
Observaţie: Se poate demonstra uşor că această valoare este egală şi cu suma fluxurilor
arcelor care "intră" în nodul final t. În concluzie avem:

Φ= ∑ ϕ u = ∑ ϕ u
u ∈ U s+ u ∈ U −t

Valoarea fluxului reprezintă cantitatea care se transportă efectiv pe reţea de la surse la


destinaţii.

Definiţia 4: Se numeşte flux de valoare maximă într-o reţea un flux ϕ în această reţea, cu
proprietatea că, pentru orice alt flux ϕ' pe această reţea, avem Φ ≥ Φ'.

Valoarea fluxului de valoare maximă reprezintă cea mai mare cantitate care se poate
transporta efectiv pe reţea, de la surse la destinaţii.

Economic vorbind, ne interesează, referitor la o reţea, răspunsurile la următoarele întrebări:

1. Putem transporta întreaga cantitate necesară la destinaţii?


2. Dacă da, cum transportăm efectiv această cantitate de la surse la destinaţii?
3. Dacă nu, din ce motiv nu putem realiza acest transport?
4. Cum putem înlătura cu eforturi minime acest motiv?

23
Răspunsul la primele două întrebări se poate afla prin găsirea fluxului de valoare maximă şi
compararea valorii lui cu suma necesarurilor destinaţiilor. În plus, valoarea acestuia pe un arc
reprezintă cantitatea care trebuie transportată pe ruta respectivă, pentru a obţine această valoare a
fluxului.
Răspunsul la ultimele două întrebări porneşte de la observaţia că cea mai mare cantitate care
poate traversa reţeaua de la un cap la altul este egală cu dimensiunea celui mai îngust loc de trecere
prin reţea. Dacă vrem, deci, să mărim fluxul va trebui să lărgim tocmai acest cel mai îngust loc de
traversare al reţelei.
Pentru formalizarea consideraţiilor de mai sus vom introduce noţiunea de tăietură într-o
reţea:

Definiţia 5: Dată o reţea de transport G(X,U) cu s = nodul iniţial şi t = nodul final, se


numeşte tăietură în reţea o partiţie a mulţimii vârfurilor reţelei de transport, formată din două
submulţimi V şi W (V∩W = ∅, V∪W = X) astfel încât s ∈ V şi t ∈ W.

O tăietură poate fi privită, intuitiv, ca o secţiune a reţelei, care lasă nodul iniţial cu o
submulţime din noduri într-o parte, nodul final cu restul nodurilor în cealaltă parte şi retează toate
arcele care trec dintr-o parte în cealaltă.
A cunoaşte o tăietură este echivalent cu a cunoaşte care sunt elementele celor două mulţimi,
V şi W, care formează partiţia.
Vom nota o tăietură prin T = (V,W), convenind ca mulţimea scrisă pe prima poziţie să
conţină nodul iniţial s al reţelei iar cea scrisă pe a doua, nodul final t.

Definiţia 6: Se numeşte capacitate a unei tăieturi T = (V,W) într-o reţea de transport


G(X,U), notată C(T), suma capacităţilor tuturor arcelor care au extremitatea iniţială în V şi cea
finală în W.
C(T) = cu ∑
( )
u = x i ,x j
x i ∈V
x j∈W

Pentru a nu exista nici o ambiguitate, insistăm asupra faptului că se vor lua în considerare
doar arcele care trec de la mulţimea ce conţine nodul iniţial spre mulţimea care conţine nodul final,
adică în sensul normal de transport (surse → destinaţie).

Definiţia 7: Se numeşte tăietură de valoare minimă într-o reţea o tăietură T în această


reţea, cu proprietatea că, pentru orice altă tăietură T' în această reţea, avem C(T) ≤ C(T').

Următoarele teoreme fac legătura matematică dintre fluxurile unei reţele şi tăieturile sale:

Teorema 1. Dată o tăietură T = (V,W) şi un flux ϕ într-o reţea de transport avem:

Φ= ∑ ϕ
( )
u = x i ,x j
u – ∑ ϕ
( )
u = x i ,x j
u

x i ∈V x i ∈W
x j∈W x j∈V

sau, altfel spus, valoarea unui flux oarecare este egală cu suma fluxurilor arcelor care trec de la V la
W din care se scade suma fluxurilor arcelor care trec invers, de la W la V, oricare ar fi tăietura T =
(V,W).

Demonstraţie: Avem succesiv:

24
⎛ ⎞
⎜ ⎟
Φ= ∑
ϕu =
u = (s, x j )
ϕu +
u = (s, x j )
∑ ⎜
x i ∈V ⎜ u∈U +
ϕu − ∑ ∑
ϕu ⎟ =


u∈U −x i
x j∈X x j∈X x i ≠s ⎝ xi ⎠
= ∑ (ϕ
( )
u = x i ,x j
u −ϕ u ) + ∑ ϕ
( )
u = x i ,x j
u - ∑ ϕ
( )
u = x i ,x j
u = ∑ ϕ
( )
u = x i ,x j
u – ∑ ϕ
( )
u = x i ,x j
u

x i ∈V x i ∈V x i ∈W x i ∈V x i ∈W
x j∈V x j∈W x j∈V x j∈W x j∈V

Corolar: Într-o reţea de transport valoarea oricărui flux este mai mică sau egală decât valoa-
rea oricărei tăieturi.

Demonstraţie: Fie T o tăietură oarecare şi ϕ un flux oarecare. Avem succesiv:

Φ= ∑ ϕ
( )
u = x i ,x j
u – ∑ ϕ
( )
u = x i ,x j
u ≤ ∑ ϕ
( )
u = x i ,x j
u ≤ ∑ c
( )
u = x i ,x j
u = C(T)
x i ∈V x i ∈W x i ∈V x i ∈V
x j∈W x j∈V x j∈W x j∈W

Corolar: Într-o reţea de transport valoarea fluxului maxim este mai mică sau egală decât
valoarea tăieturii minime.
Demonstraţia e evidentă. În plus, din cele de mai sus se vede că egalitatea are loc numai
dacă, pentru tăietura minimă, există un flux pentru care toate arcele de la V la W sunt folosite la
maxim (fluxul e egal cu capacitatea arcelor) iar pe toate arcele de la W la V nu se transportă nimic.

Teorema lui Ford-Fulkerson Dacă fluxul ϕ este maximal atunci există o tăietură de
capacitate egală cu valoarea fluxului.

Demonstraţie: Fie ϕ un flux maximal. Introducem următorul procedeu de marcare a


vârfurilor:
Pasul 1. Se marchează nodul iniţial s cu 0(zero);
Pasul 2. Pentru fiecare vârf marcat xi se marchează cu:
• [+xi] toate vârfurile nemarcate xj pentru care există arcul (xi,xj) şi ϕ(xi,xj) < c(xi,xj)
(adica nodurile spre care mai e loc pentru a se transporta ceva din xi);
• [–xi] toate vârfurile nemarcate xj pentru care există arcul (xj,xi) şi ϕ(xj,xi) > 0
(adică toate nodurile spre care pleacă deja ceva din xi);
Pasul 3. Se repetă pasul 2 până nu mai poate fi marcat nici un vârf.

Dacă vârful final t ar fi marcat, atunci începând de la acesta, am putea construi lanţul
x k1 , x k 2 , ..., x k r unde x k1 = s, x k r = t şi marcajul oricărui vârf x k i +1 este + x k i sau – x k i .
Adăugând la fluxul fiecărui arc al lanţului de tipul ( x k i , x k i +1 ) valoarea:

Δ = min( min (c(x k , x k ) − ϕ (x k , x k )) , (x min,x


(x k i ,x k i +1 ) i i +1 i i +1 )
ϕ (x k i , x k i +1 ) )
k i +1 ki

şi scăzând din fluxul fiecărui arc de tipul ( x k i +1 , x k i ) aceeaşi valoare Δ, obţinem un flux de valoare
Φ + Δ, deci fluxul ϕ nu ar fi maximal.
În concluzie vârful t nu va fi marcat. Fie tăietura T = (V,W), unde V este formată din
mulţimea nodurilor marcate iar W din cele nemarcate. În acest caz, pentru fiecare arc (xi,xj) care
"traversează" tăietura avem:

25
− dacă xi ∈ V atunci ϕ(xi,xj) = c(xi,xj) deoarece nodul xj nu e marcat
− dacă xi ∈ W atunci ϕ(xi,xj) = 0 deoarece nodul xi nu e marcat

În acest caz avem:


C(T) = ∑ c
( )
u = x i ,x j
u = ∑ ϕ
( )
u = x i ,x j
u – ∑ ϕ
( )
u = x i ,x j
u =Φ
x i ∈V x i ∈V x i ∈W
x j∈W x j∈W x j∈V

şi teorema e demonstrată.

Teorema lui Ford-Fulkerson poate stabili doar valoarea fluxului maxim dar nu dă o metodă
de găsire a acestuia. Pentru a rezolva problema găsirii fluxului de valoare maximă se poate folosi
algoritmul lui Ford-Fulkerson.
Pentru expunerea acestuia vom introduce şi noţiunile de:

arc saturat = un arc pe care fluxul este egal cu capacitatea;


drum complet = un drum de la nodul iniţial s la nodul final t care conţine cel puţin un arc saturat;
flux complet = un flux pentru care orice drum de la nodul iniţial s la nodul final t este complet.

Algoritmul lui Ford-Fulkerson

ETAPA I Se determină un flux complet.

Pasul 1. Se numerotează nodurile reţelei de transport astfel încât x1 = s şi xn = t;


Pasul 2. Se asociază grafului fluxul nul (ϕu = 0 pentru orice arc u din graf);
Pasul 3. În ordine lexicografică, se ia pe rând fiecare drum D de la nodul iniţial la cel final, se
calculează valoarea ΔD = min(c u − ϕ u ) şi se adaugă la fluxul de pe fiecare arc al
u∈D
drumului. Arcul(arcele) unui drum D pentru care s-a obţinut valoarea minimă ΔD va fi
după această adăugare, în mod evident, saturat şi deci drumul D va fi complet.
După epuizarea tuturor drumurilor se obţine un flux complet, de valoare Φ = ∑ Δ D .
D
Deoarece alegerea drumurilor în ordine lexicografică nu ţine cont de structura reţelei, aşa cum se
poate vedea pe un exemplu, acest procedeu nu asigură întotdeauna găsirea fluxului maxim. Acest
impediment poate fi depăşit fie prin găsirea unei ordini de parcurgere a tuturor drumurilor, care să
dea pentru fiecare reţea fluxul maxim, în urma procedeului de mai sus, fie prin redistribuirea
judicioasă a fluxului găsit la etapa I. A doua variantă este cea care se aplică la etapa II.

ETAPA II Se determină fluxul maxim

Pasul 4. Se marchează nodul iniţial s cu 0(zero);


Pasul 5. Pentru fiecare vârf marcat xi se marchează cu:
• [+xi] toate vârfurile nemarcate xj pentru care există arcul (xi,xj) şi ϕ(xi,xj) < c(xi,xj)
(adica nodurile spre care mai e loc pentru a se transporta ceva din xi);
• [–xi] toate vârfurile nemarcate xj pentru care există arcul (xj,xi) şi ϕ(xj,xi) > 0 (adică
toate nodurile spre care pleacă deja ceva din xi);
Pasul 6. Se repetă pasul 5 până este marcat nodul final sau până când nu mai poate fi marcat nici
un vârf;
Pasul 7. Dacă nodul final a fost marcat atunci fluxul este maxim şi algoritmul se opreşte, în caz
contrar trecându-se la pasul 8;

26
Pasul 8. Construim un lanţul L = x k1 , x k 2 , ..., x k r unde x k1 = s, x k r = t şi marcajul oricărui vârf
x k i +1 este + x k i sau – x k i . Se calculează:
ΔL = min( min (c(x k , x k ) − ϕ (x k , x k )) , (x min,x
(x k i ,x k i +1 ) i i +1 i i +1 )
ϕ (x k i , x k i +1 ) )
k i +1 ki

care se adaugă la fluxul fiecărui arc al lanţului de tipul ( x k i , x k i +1 ) şi se scade din


fluxul fiecărui arc de tipul ( x k i +1 , x k i ).
Pasul 9. Se şterge marcajul şi se reia algoritmul de la pasul 4.

În final, tăietura de valoare minimă este cea în care V = mulţimea nodurilor marcate iar W =
mulţimea nodurilor nemarcate.

Observaţia 1. Algoritmul nu asigură întotdeauna găsirea fluxului maxim, deoarece se poate


ca creşterea fluxului la fiecare iteraţie să se facă cu cantităţi din ce în ce mai mici astfel încât suma
lor să nu atingă niciodată marginea superioară dată de valoarea tăieturii minime, algoritmul având o
infinitate de paşi. Teorema de mai jos dă o condiţie suficientă pentru ca algoritmul să se termine
într-un număr finit de paşi:

Teoremă Dacă toate capacităţile rutelor reţelei sunt numere raţionale atunci algoritmul lui
Ford-Fulkerson are un număr finit de paşi.

Demonstraţie Prin înmulţirea tuturor acestor capacităţi cu cel mai mic multiplu comun al
numitorilor se obţine o reţea cu toate capacităţile numere naturale. Ţinând cont de formula de
calcul, la fiecare iteraţie cantitatea adăugată Δ va fi număr natural şi cum valoarea fluxului maxim
este mărginită de capacitatea tăieturii minime Cmin, care este de asemenea număr natural, algoritmul
va avea nevoie de cel mult Cmin paşi pentru a o atinge.

Observaţia 2. Teorema de mai sus asigură doar o limitare superioară a numărului de iteraţii
ale algoritmului, faţă de capacitatea tăieturii minime. Această valoare poate fi însă, în anumite
cazuri, foarte mare şi, dacă nu se iau precauţii suplimentare, algoritmul nu va da soluţia în timp util.
Depăşirea acestei situaţii este asigurată de următoarea teoremă:

Teoremă Dacă la fiecare iteraţie se alege drumul (lanţul) de lungime minimă atunci
1
algoritmul va avea cel mult ⋅m⋅n iteraţii, unde n = numărul de noduri iar m = numărul de muchii.
2

Observaţia 3. Există probleme în care se doreşte găsirea fluxului minim într-o reţea, valorile
fluxului pe arce fiind limitate inferior de capacităţile acestora. În acest caz se aplică de asemenea
algoritmul lui Ford-Fulkerson astfel:

Pasul 1. Se calculează M = maximul capacităţilor arcelor


Pasul 2. Se construieşte reţeaua R', care este fosta reţea, în care au fost modificate doar
capacităţile arcelor, acestea devenind c ′u = M – cu
Pasul 3. Se găseşte cu algoritmul Ford-Fulkerson fluxul ϕ, de valoare maximă, în această
reţea
Pasul 4. Fluxul de valoare minimă în reţeaua iniţială va avea valorile ϕ' = M – ϕ

Observaţia 4. Există şi alte tipuri de probleme asemănătoare celor de mai sus. Astfel, se
poate pune problema:
27
− găsirii capacităţilor minime ale arcelor cu care se poate asigura transportarea întregii
cantităţi de la surse la destinaţii
− fluxului minim(maxim) într-o reţea în care capacităţile rutelor sunt limitate atât superior
cât şi inferior;
− În cazul în care rutelor li se asociază şi costuri unitare de parcurgere, putem căuta fluxul
maxim de cost minim;

28
CAPITOLUL 7

CÂMP DE EVENIMENTE. CÂMP DE PROBABILITATE

7.1. Noţiuni fundamentale: evenimente; probabilitatea de


producere a evenimentelor.

DEFINIŢIE : Experienţa reprezintă orice act care poate fi


repetat în condiţii date. Aplicarea experienţei asupra unei populaţii
date se numeşte probă.

DEFINIŢIE : Evenimentul reprezintă orice rezultat al unei


experienţe.
Noţiunea de eveniment în teoria probabilităţilor este legată
de producerea sau neproducerea unui fenomen (într-o experienţă
dată) şi nu de natura fenomenului.

EXEMPLUL 1 : La controlul de recepţie a mărfurilor :


Ø Experienţa constă în cercetarea unui lot de marfă, dacă
corespunde sau nu din punct de vedere al calităţii.
Ø Proba constă în cercetarea calităţii unei unităţi (unui articol)
din marfa respectivă.
Ø Evenimentele rezultate sunt :
-articolul este corespunzător;
-articolul nu este corespunzător.

EXEMPLUL 2 : La aruncarea unui zar :


Ø Experienţa constă în crearea condiţiilor de aruncare a
zarului (masă, zar).
Ø Proba constă în aruncarea zarului şi citirea feţei.
Ø Evenimentele sunt asociate feţelor 1, 2, 3, 4, 5 sau 6.

DEFINIŢIE : Se numeşte eveniment elementar


evenimentul care se poate realiza printr-o singură probă.
Dacă o experienţă are n rezultate posibile, vom nota
evenimentele elementare cu ω1 , Κ , ω n .

DEFINIŢIE : Notăm cu Ω mulţimea tuturor evenimentelor


elementare, Ω = {ω1 , Κ , ω n } .
De exemplu, în cazul aruncării zarului, Ω = {1,2,3,4,5,6} .

OBSERVAŢIE : Mulţimea Ω este evenimentul sigur


(adică evenimentul care se poate realiza prin oricare din probe).

DEFINIŢIE : Evenimentul care nu se produce la nici o


efectuare a experienţei se numeşte evenimentul imposibil, pe care
îl notăm cu Φ .

DEFINIŢIE : Evenimentul care poate fie să se producă fie


să nu se producă în efectuarea unei experienţe se numeşte
eveniment aleator (întâmplător).

Vom nota evenimentele aleatoare cu litere mari A, B, C, …


Dacă evenimentele aleatoare pot fi observate de mai multe ori în
condiţii identice se constată că ele se supun unor legităţi statistice.
Teoria probabilităţilor studiază aceste legităţi, care permit să se
prevadă desfăşurarea evenimentelor.

Fiecărui eveniment A îi corespunde un eveniment contrar


(opus, complementar) care se realizează atunci şi numai atunci când
nu se realizează evenimentul A. Vom nota evenimentul contrar cu
A sau C(A).
OBSERVAŢIE : Ω = Φ ; Φ = Ω .

DEFINIŢIE : Evenimentul A implică evenimentul B, dacă


realizarea evenimentului A atrage după sine realizarea
evenimentului B. Notăm A ⊂ B .
OBSERVAŢIE : Dacă A este un eveniment şi Ω este
evenimentul sigur, evident A ⊂ Ω .

DEFINIŢIE : Dacă A ⊂ B şi B ⊂ A , atunci evenimentele A


şi B sunt echivalente.

7.2. Operaţii cu evenimente

Fie evenimentele A şi B.

DEFINIŢIE : Evenimentul a cărui producere constă în


producerea a cel puţin unuia din evenimentele A şi B se numeşte
reuniunea (suma) evenimentelor. Se notează cu A ∪ B şi se citeşte
A sau B.

DEFINIŢIE : Evenimentul care constă în producerea


simultană a evenimentelor A şi B se numeşte intersecţia (produsul)
evenimentelor. Se notează cu A ∩ B şi se citeşte A şi B.
n n
În general, S = Υ Ai şi I = Ι Ai .
i =1 i =1

DEFINIŢIE : Două evenimente sunt incompatibile dacă nu


se pot produce simultan. Deci A ∩ B = Φ .

OBSERVAŢIE : A ∩ A = Φ .

DEFINIŢIE : Diferenţa evenimentelor A–B este


evenimentul care se produce atunci şi numai atunci când se produce
A şi nu se produce B. Avem : A − B = A ∩ B .

Proprietăţi ale operaţiilor cu evenimente :

A∪ B = B ∪ A A∩ B = B ∩ A
( A ∪ B) ∪ C = A ∪ ( B ∪ C ) ( A ∩ B) ∩ C = A ∩ ( B ∩ C )
A∪ A = A A∩ A = A
A∪Φ = A A∩Φ = Φ
A∪Ω = Ω A∩Ω = A
A∪ A = Ω A∩ A = Φ
( A) = A
Φ =Ω
æ n ö n
çç Υ A i ÷÷ = Ι Ai
è i =1 ø i =1

DEFINIŢIE : O mulţime nevidă K de părţi ale lui Ω se


numeşte corp de evenimente dacă :
a) oricare ar fi evenimentul A din mulţimea K, atunci şi
evenimentul A aparţine mulţimii K.
b) oricare ar fi evenimentele A şi B din mulţimea K,
A ∪ B aparţime mulţimii K.

CONSECINŢE :
a) Ω ∈ K
Demonstraţie : dacă A ⊂ K , atunci şi A ∈ K , iar A ∪ A = Ω ∈ K ,
conform proprietăţilor operaţiilor cu evenimente.
b) Φ ∈ K
Demonstraţie : deoarece Ω ∈ K , şi Ω = Φ ∈ K .
c) Dacă A, B ∈ K , atunci A − B ∈ K
Demonstraţie : A − B = A ∩ B = A ∪ B ∈ K .
d) Dacă A, B ∈ K , atunci A ∩ B ∈ K

DEFINIŢIE : O mulţime nevidă K de părţi ale lui Ω se


numeşte corp borelian de evenimente, dacă :
a) oricare ar fi evenimentul A din mulţimea K, atunci şi
evenimentul A aparţine mulţimii K.

b) oricare ar fi A j ∈ K , j = 1,2,... , atunci ΥA
j =1
j ∈K.

DEFINIŢIE : Se numeşte câmp finit de evenimente, o


mulţime finită de evenimente elementare Ω pe care s-a definit un
corp de evenimente K. Se notează (Ω, K ) .

DEFINIŢIE : Se numeşte câmp borelian de evenimente o


mulţime finită de evenimente elementare Ω peste care s-a definit un
corp borelian de evenimente.

OBSERVAŢIE : Din definiţia anterioară rezultă că în


mulţimea evenimentelor câmpului (Ω, K ) există o submulţime
{ω i }, i = 1,..., n numită mulţimea evenimentelor elementare. Această
mulţime are următoarele proprietăţi :
1) ω i ≠ Φ , i = 1,..., n .
2) ω i ∩ ω j = Φ , i ≠ j .
n
3) Υω
i =1
i =Ω.

4) există cel puţin un eveniment A ∈ (Ω, K ) , A ≠ ω i , i = 1,..., n ,


astfel încât A = ω i1 ∪ ... ∪ ω i p , 1 ≤ p ≤ n .

DEFINIŢIE : E1, E2 ,...,En formează un sistem complet de


evenimente, deoarece :
n
1) ΥE
i =1
i =Ω

2) Ei ∩ E j = Φ , i ≠ j .

7.3. Conceptul de probabilitate

Pentru măsurarea şanselor de realizare a unui eveniment


aleator s-a introdus noţiunea de probabilitate. Sunt cunoscute trei
definiţii ale noţiunii de probabilitate.

1. Definiţia axiomatică introduce probabilitatea ca o funcţie p


definită pe un câmp de evenimente cu valori în mulţimea
numerelor reale.
2. Definiţia clasică a probabilităţii reduce conceptul de
probabilitate la cazul evenimentelor egal posibile.
3. Definiţia statistică exprimă probabilitatea cu ajutorul
frecvenţei de realizare a unui eveniment într-un număr mare
de experienţe realizate în aceleaşi condiţii.

DEFINIŢIA AXIOMATICĂ A PROBABILITĂŢII:

Fie (Ω, K ) un câmp de evenimente.


Funcţia P : (Ω, K ) → R , care asociază oricărui eveniment
A ∈ (Ω, K ) numărul real P(A), cu proprietăţile :
1) P( A) ≥ 0 , oricare ar fi A ∈ (Ω, K ) ,
2) P(Ω) = 1 ,
3) P( A ∪ B) = P( A) ∪ P( B ) , oricare ar fi A, B ∈ (Ω, K ) ,
A∩ B = Φ ,
se numeşte probabilitate.

Această definiţie a fost enunţată de A.N.Kolmogorov


(1929).

DEFINIŢIE : Un câmp de evenimente (Ω, K ) înzestrat cu o


probabilitate P se numeşte câmp de probabilitate, şi se notează cu
(Ω, K , P) .
DEFINIŢIE : Se numeşte probabilitate σ - aditivă (sau
complet aditivă) pe câmpul borelian de evenimente (Ω, K ) o
funcţie P : (Ω, K ) → R cu proprietăţile :
1) P( A) ≥ 0 , oricare ar fi A ∈ (Ω, K ) ,
2) P(Ω) = 1 ,
∞ ∞
3) Pæçç Υ Ai ö÷÷ = å P ( Ai ) , oricare ar fi şirul ( Ai )i∈N * ∈ (Ω, K ) şi
è i =1 ø i =1
Ai ∩ A j = Φ , oricare ar fi i ≠ j .

DEFINIŢIE : Un câmp borelian de evenimente (Ω, K )


înzestrat cu o probabilitate σ - aditivă se numeşte câmp borelian
de probabilitate şi se notează (Ω, K , P) .

Consecinţe ale definiţiei axiomatice a probabilităţii:

C1. P( A ) = 1 − P( A)

Demonstraţie : Din proprietăţile operaţiilor cu evenimente ştim că


A∪ A = Ω. Atunci P( A ∪ A ) = P( A) + P( A ) , deoarece
A ∩ A = Φ . Rezultă că P( A ) = 1 − P( A) .

C2. Dacă Ai ∈ (Ω, K ) , i = 1,..., n cu proprietatea că Ai ∩ A j = Φ ,


∞ ∞
oricare ar fi i ≠ j , i, j = 1,..., n , atunci : Pæçç Υ Ai ö÷÷ = å P ( Ai ) .
è i =1 ø i =1

Demonstraţie : - folosim inducţia matematică .


Pentru n=2, relaţia este adevărată, conform proprietăţii numarul 3
din definiţia lui Kolmogorov.
Presupunem că propoziţia este adevărată pentru n-1, adică
n −1
æ n −1 ö n −1
Pçç Υ Ai ÷÷ = å P ( Ai ) . Notăm A = Υ Ai . Rezultă astfel că putem
è i =1 ø i =1 i =1
n −1
scrie ΥA
i =1
i = A ∪ An .
n −1
Atunci P æçç Υ Ai ö÷÷ = P( A) + P( An ) = å P( Ai ) .
n

è i =1 ø i =1
n
C3. å P(ω ) = 1 , unde ω , ω
i =1
i 1 2 ,..., ω n sunt evenimentele elementare

ale mulţimii Ω .
n
Demonstraţie: Υω
i =1
i =Ω şi ωi ∩ωj = Φ, i ≠j. Atunci

æn ö n
PççΥωi ÷÷ = P(Ω) = 1, deci åP(ω ) =1. i
è i=1 ø i=1

C4. Dacă A, B ∈ (Ω, K ) şi A ⊂ B , atunci P( A) ≤ P( B) .

p p+q
Demonstraţie: Dacă A ⊂ B , atunci A = Υω i şi B = Υω i
. Ştim că
i =1 i =1

ω i ∩ ω j = Φ , i≠j.
p p q
Deci : P( A) = å P(ω i ) şi P ( B ) = å P(ω i ) + å P(ω ) . i
Dar
i =1 i =1 i = p +1

P(ω i ) ≥ 0 , de unde rezultă că P( A) ≤ P( B ) .

C5. Oricare ar fi evenimentul A ⊂ (Ω, K ) , este adevărată relaţia


0 ≤ P( A) ≤ 1 .

Demonstraţie: Oricare ar fi A ∈ (Ω, K ) , Φ ⊂ A ⊂ Ω , deci vom avea


P(Φ ) ≤ P( A) ≤ P(Ω) , adică 0 ≤ P( A) ≤ 1 .

C6. Să considerăm o experienţă în care mulţimea evenimentelor


elementare cuprinde evenimente egal posibile (exemplu: aruncarea
unui zar). Din C3. rezultă că P(ωi ) = 1 . Fie A ∈ (Ω, K ) , unde
n
k
A = ω i1 ∪ ... ∪ ω ik . Atunci P( A) = P(ωi1 ) + ... + P(ωik ) , deci P( A) = .
n
DEFINIŢIA CLASICĂ A PROBABILITĂŢII:

Probabilitatea unui eveniment A ⊂ (Ω, K ) este egală cu


raportul dintre numărul cazurilor favorabile producerii
evenimentului A şi numărul total de cazuri posibile.

7.4. Probabilităţi condiţionate

DEFINIŢIE : Fie (Ω, K , P ) un câmp borelian de


probabilitate. Fie A, B ∈ (Ω, K , P ) cu P( A) ≠ 0 . Să presupunem că
apariţia evenimentului B este condiţionată de apariţia evenimentului
A. Vom nota această probabilitate condiţionată cu PA (B ) sau
P( A ∩ B )
P( B / A) . Atunci PA ( B ) = = P ( B / A) .
P ( A)

Proprietăţi ale probabilităţilor condiţionate:

Proprietatea 1 :
{Ω, K , PA ( B )} este un câmp (chiar borelian) de
probabilitate.

Demonstraţie: Verificăm ipotezele :


1. PA ( B ) ≥ 0 deoarece P( A ∩ B ) ≥ 0 şi P( A) > 0
2. PA (Ω ) = 1
P ( A ∩ Ω) P( A)
PA (Ω) = = =1
P ( A) P( A)
3. PA ( B1 ∪ B2 ) = PA ( B1 ) + PA ( B2 )
P[(B1 ∪ B2 ) ∩ A] P[(B1 ∩ A) ∪ (B2 ∩ A)]
PA ( B1 ∪ B2 ) = = =
P( A) P( A)
P ( B1 ∩ A) P( B2 ∩ A)
= + = PA ( B1 ) + PA ( B2 )
P( A) P ( A)
În această demonstraţie avem în vedere faptul că
B1 ∩ B2 = Φ şi ( B1 ∩ A) ∩ ( B2 ∩ A) = B1 ∩ B2 ∩ A .

Proprietatea 2 :
Dacă P( A) ≠ 0 şi P(B) ≠ 0 , atunci este adevărată
relaţia P( A) ⋅ PA ( B) = P( B) ⋅ PB ( A) .
Demonstraţie:
P( A ∩ B ) , de unde
PA ( B ) = P ( A ∩ B ) = P ( A) ⋅ PA ( B )
P ( A)
P( B ∩ A) , de unde
PB ( A) = P ( B ∩ A) = P ( B ) ⋅ PA ( A)
P( B )
Cum P( A ∩ B ) = P( B ∩ A) , avem P( A) ⋅ PA(B) = P(B) ⋅ PB ( A)
şi proprietatea 2 este demonstrată.

DEFINIŢIE : Evenimentele A, B ∈ (Ω, K ) sunt


independente dacă P( A ∩ B ) = P ( A) ⋅ P( B ) .

7.5. Formule de calcul ale probabilităţilor în cazul operaţiilor cu


evenimente

1) Reuniunea evenimentelor incompatibile:


æ n ö n
P çç Υ Ak ÷÷ = å P ( Ak ) , dacă Ai ∩ A j = Φ , i ≠ j .
è k =1 ø k =1

Demonstraţia este imediată, prin metoda inducţiei matematice,


utilizând axioma 3 din definiţia axiomatică a probabilităţii.

2) Reuniunea evenimentelor compatibile:


P( A ∪ B ) = P ( A) + P( B ) − P( A ∩ B ) (*)

Demonstraţie : Evenimentele A şi B se mai pot scrie astfel:


A = ( A ∩ B) ∪ ( A ∩ B )
B = ( B ∩ A) ∪ ( B ∩ A )
Deci A ∪ B = ( A ∩ B ) ∪ ( A ∩ B ) ∪ ( A ∩ B ) . Evenimentele din
paranteze sunt independente două câte două.
P( A ∪ B ) = P( A ∩ B ) + P( A ∩ B ) + P( A ∩ B ) (α )
P ( A) = P ( A ∩ B ) + P ( A ∩ B )
P( B ) = P( A ∩ B ) + P( A ∩ B )
Din relaţia ( α ) scădem cele două relaţii de mai sus şi obţinem:
P( A ∪ B ) − P( A) − P( B ) = − P ( A ∩ B ) , de unde rezultă
P( A ∪ B ) = P ( A) + P( B ) − P( A ∩ B ) .
În general, fie sistemul de evenimente compatibile
{ A1 ,..., An } ⊂ K . Probabilitatea producerii a cel puţin unuia dintre
aceste evenimente este:
æn ö n
Pçç Υ Ai ÷÷ = å P( Ai ) − å P( Ai ∩ Aj ) + å P( Ai ∩ Aj ∩ Ak ) + ... +
è i=1 ø i=1 i< j i< j<k
n +1
+ ( −1) P( A1 ∩ A2 ∩ ... ∩ An ) . Această formulă se numeşte
formula lui Poincaré.

Demonstraţie: Se utilizează inducţia matematică.


În etapa de verificare, pentru n = 2 , se obţine relaţia (*)
care a fost demonstrată.
Se presupune proprietatea adevărată pentru k evenimente
compatibile, cu k ≤ n şi se demonstrează că formula lui Poincaré
este adevărată şi pentru n+1 evenimente. Atunci:

æ n+1 ö éæ n ö ù æn ö éæ n ö ù
Pçç Υ Ak ÷÷ = Pêçç Υ Ak ÷÷ ∪ An+1 ú = Pçç Υ Ak ÷÷ + P( An+1 ) − Pêçç Υ Ak ÷÷ ∩ An−1 ú =
è k =1 ø ëè k =1 ø û è k =1 ø ëè k =1 ø û
æ n
ö é n
ù
= Pçç Υ Ak ÷÷ + P( An−1 ) − PêΥ( Ak ∩ An+1 )ú .
è k =1 ø ë k =1 û

În primul şi al treilea termen al acestei relaţii se utilizează


formula Poincaré, adevărată pentru n evenimente compatibile.
Rezultă :

æ n+1 ö n+1 n
Pçç Υ Ak ÷÷ = å P( Ak ) − å P( Ai ∩ Aj ) + å P( Ai ∩ Aj ∩ Ak ) −
è k =1 ø k =1 i , j=1;i< j i , j ,k =1;i< j<k
n +1
æ ö
... + ( −1) n P çç Ι Ak ÷÷
è k =1 ø

EXEMPLU: Problema concordanţelor

O urnă conţine n bile numerotate 1,2,…,n. Se extrag pe rând


toate bilele din urnă. Se numeşte concordanţă de rang k evenimentul
ca la extragerea de rang k să apară bila cu numărul k. Fie Ak acest
eveniment. Să se determine probabilitatea de a avea cel puţin o
concordanţă.
Rezolvare: Fie A evenimentul de a avea cel puţin o
n
concordanţă. Rezultă că A = Υ Ak , iar evenimentele sunt
k =1
compatibile.
Se aplică formula lui Poincaré.
( n − 1)! 1
P( Ak ) = = , oricare ar fi k = 1,2,..., n .
n! n
(n − 2)! 1 , oricare ar fi
P( Ai ∩ Aj ) = = i, j = 1,2,..., n , şi i ≠ j .
n! n(n − 1)
……………………………………………………………………..
æ n ö 1
P çç Ι Ak ÷÷ =
è k =1 ø n!
Rezultă : P( A) = å 1 − å 1 1 1 1
n n
+ ... + (−1)n−1 ⋅ =n ⋅ − Cn2 +
k =1 n i, j=1;i< j n(n − 1) n n n(n − 1)
1 1 1 1 1
+ Cn3 + ... + ( −1) n −1 ⋅ = 1 − + + ... + ( −1) n −1 ⋅
n( n − 1)( n − 2) n! 2! 3! n!

3) Formula de înmulţire a probabilităţilor:

TEOREMA 1: Fie (Ω, K , P) un câmp de probabilitate şi fie


familia de evenimente ( A1 , A2 ,..., An ) ⊂ K independente în totalitatea
lor. Atunci, probabilitatea producerii simultane a celor n evenimente
este egală cu produsul probabilităţilor acestor evenimente:
æ n ö n
Pçç Ι Ak ÷÷ = ∏ P( Ak ) .
è k =1 ø k =1

Demonstraţie : Se face prin inducţie după n.


Pentru n=2, etapa de verificare, rezultă din definiţia
independenţei a două evenimente: P ( A1 ∩ A2 ) = P( A1 ) ⋅ P ( A2 )
Presupunem teorema adevărată pentru k evenimente
(k ≤ n) şi o demonstrăm pentru n+1 evenimente:
éæ n ö ù æ n ö
P ( A1 ∩ A2 ∩ ... An ∩ An +1 ) = P êçç Ι Ak ÷÷ ∩ An +1 ú = Pçç Ι Ak ÷÷ ⋅ P ( An +1 ) =
ëè k =1 ø û è k =1 ø
n +1
é n
ù
= ê∏ P ( Ak )ú ⋅ P( An +1 ) = ∏ P( Ak )
ë k =1 û k =1
TEOREMA 2: Într-un câmp de probabilitate (Ω, K , P) fie
familia de evenimente ( A1 , A2 ,..., An ) ⊂ K astfel încât probabilitatea
P( A1 , A2 ,..., An ) ≠ Φ . Atunci:
æn ö
PççΙ Ak ÷÷ = P( A1 ) ⋅ P( A2 | A1 ) ⋅ P( A3 | A1 ∩ A2 ) ⋅ ...⋅ P( An | A1 ∩... ∩ An−1 )
è k=1 ø

Demonstraţie: Se poate demonstra fie prin inducţie, fie


prin definiţia probabilităţilor condiţionate. Aplicăm a doua metodă:
P ( A1 ) = P( A1 )
P( A1 ∩ A2 )
P( A2 | A1 ) =
P( A1 )
P( A1 ∩ A2 ∩ A3 )
P( A3 | A1 ∩ A2 ) =
P( A1 ∩ A2 )
………………………………………..
æ n −1
ö P ( A1 ∩ A2 ∩ ... ∩ An )
P çç An | Ι Ai ÷÷ =
è i =1 ø P ( A1 ∩ A2 ∩ ... ∩ An −1 )

Înmulţim între ele expresiile din membrul stâng şi din


membrul drept şi simplificăm. Rezultă :
n −1
æ ö
P ( A1 ) ⋅ P ( A2 | A1 ) ⋅ Κ ⋅ P çç An | Ι Ai ÷÷ = P( A1 ∩ A2 ∩ ... ∩ An )
è i =1 ø

EXEMPLU : Un lot de piese conţine 5% piese rebut.


Controlul de calitate stabileşte ca regulă de acceptare a lotului
condiţa ca la 5 verificări consecutive să nu fie nici o piesă rebut.
Care este probabilitatea de acceptare a lotului?

Rezolvare: Fie Ak evenimentul ca piesa controlată


lacontrolul de ordinul k să fie corespunzătoare, fie A evenimentul ca
lotul să fie acceptat. Atunci: A = A1 ∩ A2 ∩ A3 ∩ A4 ∩ A5 .
Evenimentele nu sunt independente, deoarece orice realizare a unuia
dintre ele influenţează realizarea celorlalte prin modificarea
proporţiei de piese corespunzătoare din lot.

P(A) = P( A1) ⋅ P(A2 | A1) ⋅ P( A3 | A1 ∩ A2 ) ⋅ P( A4 | A1 ∩A2 ∩ A3)⋅ P(A5 | A1 ∩A2 ∩A3 ∩A4 )

Avem: P( A1 ) = 95 ; P( A2 | A1 ) = 94 ; P( A3 | A1 ∩ A2 ) = 93 ;
100 99 98
92
P( A4 | A1 ∩ A2 ∩ A3 ) =; P( A5 | A1 ∩ A2 ∩ A3 ∩ A4 ) = 91 .
97 96
95 94 93 92 91
Deci: P( A) = ⋅ ⋅ ⋅ ⋅ = 0,77 .
100 99 98 97 96

7.6. Formula probabilităţilor totale

Fie A1 , A2 ,..., An un sistem complet de evenimente al


câmpului (Ω, K ) . Adică A1 ∪ Κ ∪ An = Ω şi Ai ∩ A j = Φ , unde
i, j = 1, Κ , n , i ≠ j .
Fie X ∈ (Ω, K ) evenimentul care se realizează condiţionat
când unul din evenimentele Ai se realizează. Cunoscând P( Ai ) şi
PAi (X ) , i = 1, Κ , n , să se determine P(X).

TEOREMĂ : Probabilitatea unui eveniment X ce se produce


condiţionat de unul din evenimentele A1 , A2 ,..., An care formează un
sistem complet de evenimente este :

n
P( X ) = P( Ai ) ⋅ PAi ( X ) (formula probabilităţii totale)
i =1

Demonstraţie: Putem scrie :

X = ( A1 ∩ X ) ∪ ( A2 ∩ X ) ∪ Κ ∪ ( An ∩ X ) .
Vom arăta că : ( Ai ∩ X ) ∩ ( A j ∩ X ) = Φ .
( Ai ∩ X ) ∩ ( A j ∩ X ) = ( Ai ∩ A j ) ∩ X = Φ ∩ X = Φ , i ≠ j .
n
P( X ) = P[(A1 ∩ X ) ∪ ( A2 ∩ X ) ∪Κ ∪ ( An ∩ X )] = åP( Ai ∩ X ) =
i=1
n
= å P( Ai ) ⋅ PAi ( X ) deoarece P ( Ai ∩ X ) = P ( Ai ) ⋅ PAi ( X )
i =1

şi PA ( X ) = P( Ai ∩ X ) .
i
P( Ai )
7.7. Formula lui Bayes

Considerând aceleaşi ipoteze ca şi în cazul formulei


probabilităţilor totale : A1 ∪ Κ ∪ An = Ω şi Ai ∩ A j = Φ , unde
i, j = 1, Κ , n , i ≠ j , notăm cu X ∈ (Ω, K ) evenimentul care se
realizează când unul din evenientele Ai , i = 1, Κ , n , se realizează.

Problema: Să se determine probabilitatea evenimentelor Ai


în ipoteza realizării evenimentului X, adică PX ( Ai ) = ?
P ( Ai ) ⋅ PAi ( X )
Px ( Ai ) = n (formula lui Bayes)
å P( Ai ) ⋅ PAi ( X )
i =1

Demonstraţie:

P( Ai ∩ X ) şi P( Ai ∩ X )
PAi ( X ) = PX ( Ai ) = . Rezultă că:
P( Ai ) P( X )
P( Ai ) ⋅ PAi ( X )
P( Ai ) ⋅ PAi ( X ) = P( X ) ⋅ PX ( Ai ) Þ Þ PX ( Ai ) = .
P( X )
Vom înlocui P(X) cu formula probabilităţii totale şi obţinem :

P ( Ai ) ⋅ PAi ( X ) .
Px ( Ai ) = n

å P( A ) ⋅ P
i =1
i Ai (X )

7.8. Scheme probabilistice clasice

Colectivităţile studiate în practică au caracteristici care duc


la evenimente care se realizează după scheme teoretice
asemănătoare.

1. Schema urnei cu bile nerevenite:

Se consideră o urnă în care sunt bile albe şi bile negre. Fie


„a” numărul bilelor albe şi „b” numărul bilelor negre. Fie N=a+b
numărul total de bile din urnă.
Se extrag succesiv n bile, fără a repune bilele înapoi (sau se
extrag deodată n bile).
Se cere probabilitatea Pn (α , β ) ca din cele n bile extrase,
α să fie albe şi β să fie negre.

Soluţie: Numărul tuturor grupelor de n bile luate din cele N


bile este C Nn . Pentru a determina numărul cazurilor favorabile
asociez fiecare grupă de α bile albe (în total Caα grupe) cu fiecare
grupă ce conţine β bile negre (în total Cbβ grupe).
Deci numărul total al cazurilor favorabilr este Caα ⋅ Cbβ .
Folosind definiţia clasică a probabilităţii se obţine relaţia :
Cα ⋅ C β
Pn (α , β ) = a n b , unde a+b=n şi α + β = n .
CN
Dacă notăm α = x (din n bile extrase x să fie albe), vom
obţine:
C x ⋅ C n− x
Pn ( x) = a n N −a .
CN

Generalizare: Presupunem că în urnă sunt bile de s culori.


Fie ak numărul bilelor de culoarea k (k = 1, Κ , s ) . Se extrag deodată
n bile. Care este probabilitatea ca xk bile să fie de culoarea k ?
s s
Avem: åa
k =1
k = N şi åx
k =1
k = n . Se obţine relaţia următoare :

Cax11 ⋅ Cax22 ⋅ ... ⋅ C axss


Pn ( x1 , x2 ,..., x s ) =
C Nn

EXEMPLU:
Într-un depozit sunt 30 televizoare , 18 de producţie străină
şi 12 de producţie românească, ambalate identic. Care este
probabilitatea ca la o comandă de 10 televizoare, un magazin să
primească 6 străine şi 4 româneşti?
C 6 ⋅ C 4 612
P10 (6,4) = 10 10 10 = ≈ 0,9 .
C30 667

2. Schema urnei cu bila revenită (schema Bernoulli):

Se consideră o urnă în care sunt bile albe şi bile negre. Fie


„a” numărul bilelor albe şi „b” numărul bilelor negre. Fie N=a+b
numărul total de bile din urnă. Se extrag n bile, de fiecare dată bila
extrasă introducându-se înapoi în urnă.
Se cere: probabilitatea ca din cele n bile extrase x bile să fie
albe.

Soluţie: Fie A evenimentul extragerii unei bile albe. Notăm


P( A) = p , deci P ( A ) = q = 1 − p .
Fie A si A si Κ si A şi A si A si ... si A ,
14444244443 1 4 4 4 4 2 4 4 4 4 3
de x ori de ( n − x ) ori

o succesiune în care A apare de x ori şi A apare de (n-x) ori.


Probabilitatea unei astfel de succesiuni de evenimente
independente (rezultatul oricărei extrageri nu depinde de
precedentul) este :
P[ A ∩ A ∩ Κ ∩ A ∩ A ∩ A ∩ Κ ∩ A] = px ⋅ qn−x
14444244443 1 4 4 4 44 2 4 4 4 4 43
de x ori de (n−x) ori

Numărul succesiunilor distincte în care apare A de x ori şi


A de (n-1) ori este, evident, Cnx . Deoarece aceste succesiuni sunt
incompatibile şi echiprobabile, rezultă relaţia:
n!
Pn ( x ) = C nx p x q n − x = p x q n− x .
x! ( n − x )!

OBSERVAŢIE: Probabilitatea de mai sus este egală cu


coeficientul lui t x din dezvoltarea binomului ( q + pt ) n .

EXEMPLU:
Se consideră o urnă ce conţine 3 bile albe şi 4 bile negre.
Din această urnă se fac 3 extrageri cu revenire. Cu ce probabilitate
se obţin 2 bile albe şi o bilă neagră?
2
æ 3 ö 4 108
P3 ( 2) = C32 ç ÷ ⋅ = = 0,315
è 7 ø 7 343

Generalizare: Fie o urnă cu bile de s culori. Fie pk


probabilitatea extragerii unei bile de culoare k ( k = 1, Κ , s ) .
Ne interesează să determinăm probabilitatea ca din cele n
bile extrase, xk bile să fie de culoarea k , ( k = 1, Κ , s ) . Notând
această probabilitate cu Pn ( x ) = ( x1 , x 2 ,..., x s ) , se arată că:
n!
Pn ( x ) = ( x1 , x2 ,..., x s ) = ⋅ p1x1 ⋅ p2x2 ⋅ Κ ⋅ psxs , unde xk ≥ 0 ,
x1!⋅ x2 !⋅Κ ⋅ xn !
s s

åx
k =1
k = n, åp
k =1
k = 1. (lege multinominală)

EXEMPLU:
Un magazin primeşte în cursul unei săptămâni 100 bucăţi
dintr-o anumită marfă provenită de la fabricile A, B, C.
Probabilitatea ca marfa să provină de la fabrica A este de 0,6; de la
fabrica B este de 0,2; de la fabrica C este de 0,2. Care este
probabilitatea ca din cele 100 bucăţi primite, 60 să fi fost realizate la
fabrica A, 30 la fabrica B, iar restul la C?
100!
p= (0,6) 60 ⋅ (0,2) 30 ⋅ (0,2)10
60!⋅30!⋅10!

3. Problema lui Pascal:

Fie o urnă Bernoulli. Fie X evenimentul ca prima bilă albă


să fie extrasă la extragerea de ordinul x. Fie A evenimentul de
extragere a bilei albe şi A evenimentul de extragere a bilei negre.
Deci X = A ∩ A ∩ Κ ∩ A ∩ A .
1 4 4 4 44 2 4 4 4 4 43
( x −1) ori

Ştiind că P ( A) = p şi P ( A ) = q , atunci P ( X ) = p ⋅ q x −1 .
Această lege se mai numeşte şi legea geometrică deoarece
este exprimată prin termenul general al unei progresii geometrice cu
primul termen p şi raţia q.

EXEMPLU:
Într-un raft sunt cămăşi de acelaşi fel de talia I şi a-II-a în
proporţie de 49% (I) şi 51% (II), identic ambalate. Care este
probabilitatea ca un cumpărător care doreşte o cămaşă de talia II să
o găsească numai la a 6-a încercare?
x = 6 , p = 0,49 , q = 0,51 .
P ( X ) = p ⋅ q x −1 = 0,49 ⋅ (0,51) 5 = 0,0169 .

4. Schema lui Poisson

Fie n urne care conţin bile albe şi negre în proporţii diferite:


Ø Urna U1 : p1 + q1 = 1 ;
Ø Urna U2 : p 2 + q2 = 1 ;
………………………….
Ø Urna Un : pn + qn = 1 .

Se extrage câte o bilă din fiecare urnă. Se cere


probabilitatea ca din cele n bile extrase, x să fie albe.
Pn ( x ) = å pi1 ⋅ pi2 ⋅ Κ ⋅ pix ⋅ qix +1 ⋅ Κ ⋅ qin

Acestă sumă conţine toate produsele a câte n factori formate


în moduri diferite, din care x probabilităţi pi şi (n-x) probabilităţi qi
(i = 1,..., n ) . Suma de mai sus este dată de polinomul Pn (x ) care
conţine coeficienţii lui t x din dezvoltarea:
( p1t + q1 ) ⋅ ( p2 t + q2 ) ⋅ Κ ⋅ ( pn t + qn )

OBSERVAŢIE : Urna Bernoulli este un caz particular al


urnei Poisson când p1 = p 2 = Κ = p n = p .

EXEMPLU:
O firmă se aprovizionează de la 4 furnizori. Din datele
statistice deţinute se estimează că doi dintre furnizori onorează
contractele cu probabilitatea 0,8, iar ceilalţi doi cu probabilitatea
0,9. Se cer probabilităţile următoarelor evenimente:
a) toţi furnizorii onorează contractul;
b) doar doi furnizori onorează contractul;
c) nici un furnizor nu onorează contractul;
d) cel puţin un furnizor onorează contractul.

Problema se încadrează în schema lui Poisson.


p1 = 0,8 , p 2 = 0,8 , p3 = 0,9 , p4 = 0,9
Q (t ) = ( 0,8t + 0,2) 2 ⋅ (0,9t + 0,1) 2
a) P4 ( 4) = p1 ⋅ p 2 ⋅ p3 ⋅ p4 = 0,5184 ;
b) P4 (2) = 0,82 ⋅ 0,12 + 4 ⋅ 0,8 ⋅ 0,2 ⋅ 0,9 ⋅ 0,1 + 0,22 ⋅ 0,92 = 0,0964
c) P4 (0) = 0,2 2 ⋅ 0,12 = 0,0004
d) P = 1 − 0,0004 = 0,9996
CAPITOLUL 8

VARIABILE ALEATOARE

În activitatea economică se întâlnesc multe mărimi


numerice care variază întâmplător (aleator).

EXEMPLE:
1) Numărul calculatoarelor vândute la un magazin într-o zi
este o variabilă aleatoare care poate lua una din valorile 0, 1, 2, …, n
, unde n este numărul total de calculatoare din magazin. Aici,
mulţimea valorilor posibile este {0,1,2,..., n} .

2) Timpul necesar servirii unui automobilist la o staţie de


benzină este o variabilă aleatoare care poate lua o valoare dintr-un
interval dat (a,b). Aici, mulţimea valorilor posibile este (a,b).

DEFINIŢIE: Se numeşte o variabilă aleatoare, o mărime


care în urma unei experienţe poate lua o valoare dintr-o mulţime
bine definită numită mulţimea valorilor posibile.

OBSERVAŢIE: Nu se cunoaşte dinainte ce valoare ia


variabila aleatoare; această valoare va fi cunoscută numai după
efectuarea experimentului.

DEFINIŢIE: Dacă mulţimea valorilor posibile este


discretă, atunci variabila aleatoare se numeşte discretă, iar dacă
mulţimea valorilor posibile este continuă (un interval finit sau
infinit din R ), variabila aleatoare se numeşte continuă.

OBSERVAŢIE: Vom nota variabilele aleatoare cu litere


mari de la sfârşitul alfabetului, X, Y, Z, etc., iar valorile pe care le
pot lua variabilele aleatoare cu litere mici, x, y, z, etc.

8.1. Variabile aleatoare discrete

Pentru a defini o variabilă aleatoare discretă, trebuie să


enumerăm toate valorile posibile ale variabilei aleatoare precum şi
probabilităţile corespunzătoare.
EXEMPLU: în cazul aruncării unui zar, definim variabila
aleatoare astfel:
æ1 2 3 4 5 6ö
X :ç1 1 1 1 1 1÷
ç ÷
è6 6 6 6 6 6ø

DEFINIŢIE: Se numeşte repartiţie a unei variabile


aleatoare discrete enumerarea tuturor valorilor posibile ale
variabilei aleatoare precum şi a probabilităţilor corespunzătoare.

În general, fie variabila aleatoare X şi xi , (i=1, 2, … , n )


valorile ei posibile.
Fie Ei evenimentul ca variabila aleatoare X=xi , i=1, 2, … ,
n şi fie P(Ei)=P(X=xi)=f(xi)=pi , probabilitatea corespunzătoare,
unde f(xi) este funcţia de probabilitate. Atunci putem scrie:

æ x x2 Κ xn ö
X : çç 1 ÷
è f ( x1 ) f ( x2 ) Κ f ( x n ) ÷ø

DEFINIŢIE: Mulţimea perechilor ordonate ( xi , f ( xi )) se


numeşte repartiţia variabilei aleatoare discrete X.

Din exemplele prezentate rezultă că funcţia de probabilitate


trebuie să îndeplinească următoarele două condiţii:

1) f ( xi ) ≥ 0 , i = 1,..., n ;
n
2) å f ( x ) = 1 , deoarece
i =1
i
E i = ( X = xi ) este un sistem complet
n
de evenimente, adică: ΥE
i =1
i = Ω , Ei ∩ E j = Φ , i ≠ j , i, j = 1,..., n .

EXEMPLE:

1. Repartiţia binomială (Bernoulli):

æ x ö
X : çç ÷ , x = 0,1,..., n .
x x n− x ÷
è f ( x ) = C n p q ø
f ( x ) = Cnx p x q n− x arată probabilitatea ca din n extrageri, x să
fie bile albe. Arătăm în continuare că f(x) este o funcţie de
probabilitate.
1) Evident, f ( x ) ≥ 0 ;
n n
2) å f ( x) = å C
x =0 x =0
x
n p x q n − x = ( p + q) n = 1 (binomul lui Newton) .

2. Repartiţia geometrică (Pascal):

Fie X evenimentul ca extragerea bilei albe să se realizeze


prima dată la extragerea de ordinul x: X = ( A ∩ Κ ∩ A ∩ A) ,
1 4 44 2 4 4 43
x−1

deci P( x ) = p ⋅ q x −1 .

æ x ö
X : çç ÷ , x = 1,2,3,..., n , unde p > 0 , q > 0 şi p + q = 1 .
x−1 ÷
è f ( x) = p ⋅ q ø

Evident:
1) f ( x ) ≥ 0 ;
∞ ∞ ∞
1 p
2) å p⋅q
x =1
x −1

x =1
= p ⋅ å q x −1 = p ⋅
= = 1 , deoarece seria å q x −1
1− q p x =1
este seria geometrică de raţie 0 < q < 1 , convergentă, cu suma
1 .
1− q

8.1.1. Operaţii cu variabile aleatoare discrete; variabile


aleatoare independente

x Κ xi Κ æy Κ yj Κ ym ö
Fie X : æç 1
xn ö
; Y :ç 1 .
çp Κ pi Κ pn çq Κ qj Κ qm
è 1 è 1
n m
pi = f ( x i ) ≥ 0 ; pi = 1 ; qj = f (yj ) ≥ 0 ; q j = 1.
i =1 j =1

Evenimentul care constă în faptul că :


Ø X ia valoarea xi îl notăm ( X = xi ), i=1, … , n ,
P( X = xi )=pi ;
Ø Y ia valoarea yj îl notăm ( Y = y j ), j=1, … , m,
P( Y = y j )=qj .

Evenimentul care constă în faptul că X = xi şi Y = y j este


( X = xi ) ∩ (Y = y j ) , i=1, … , n; j=1, … , m .
P[(X = xi );(Y = y j )] = P[(X = xi ) ∩(Y = y j )] are o probabilitate
bine determinată, notată pij .

DEFINIŢIE: Variabilele aleatoare X şi Y se numesc


independente dacă evenimentele ( X = xi ) şi ( Y = y j ), i=1, … , n;
j=1, …, m sunt independente. În acest caz:
P[( X = xi ); (Y = y j )] = P[( X = xi ) ∩ (Y = y j )] = pij = pi ⋅ q j .

OPERAŢII:

æx + yj ö
1) X + Y : ç i , unde pij = pi ⋅ q j , i=1, … , n; j=1, … , m .
ç p ÷÷
è ij ø

æx ⋅ y ö
2) X ⋅ Y : ç i j ÷ , i=1, … , n; j=1, … , m , unde, dacă X şi Y sunt
ç p ÷
è ij ø
independente, pij = pi ⋅ q j .

æ a ⋅ xi ö
3) a ⋅ X = çç ÷÷ , i=1, … , n .
è pi ø

æ xk Κ xik Κ x nk ö
4) X k : ç 1 ÷.
çp Κ Κ p n ÷ø
è 1 pi

EXEMPLU: Fie variabilele aleatoare discrete X şi Y cu


repartiţiile:
æ 0 1 2 ö æ−1 1 ö
X : çç ÷÷ şi Y : çç ÷÷
è 0,3 0,5 0,2 ø è 0,5 0,5 ø
æ −1 1 0 2 1 3 ö
X + Y : çç ÷÷ Þ
è0,3⋅ 0,5 0,3⋅ 0,5 0,5⋅ 0,5 0,5⋅ 0,5 0,2 ⋅ 0,5 0,2 ⋅ 0,5ø
æ −1 0 1 2 3 ö
Þ X + Y : çç ÷÷ .
è 0,15 0,25 0,25 0,25 0,10 ø

æ 0 0 −1 1 −2 2 ö
X ⋅ Y : çç ÷÷ Þ
è 0,15 0,15 0,25 0,25 0,1 0,1ø
æ− 2 −1 0 1 2ö
Þ X ⋅ Y : çç ÷÷ .
è 0,1 0,25 0,3 0,25 0,1ø

æ 0 3 6 ö
3 ⋅ X : çç ÷÷ .
è 0,3 0,5 0, 2 ø

æ 0 1 8 ö
X 3 : çç ÷÷ .
è 0,3 0,5 0,2 ø

Reprezentarea grafică a funcţiilor de probabilitate:

æ 0 1 2 ö
EXEMPLU: X : çç ÷÷ , pi = f ( xi ) .
è f (0) = 0,3 f (1) = 0,5 f (2) = 0,2 ø

Atunci graficul funcţiei de probabilitate a variabilei


aleatoare X definit anterior este:

0,5 -
-
0,3 -
0,2 -
-
0 1 2
8.2. Variabile aleatoare continue

Fie variabila aleatoare X : æçç


x ö
, unde x ∈ [a, b] , iar f (x )
è f ( x)
este probabilitatea de apariţie a lui x.

DEFINIŢIE: Funcţia f (x ) se numeşte densitatea de


probabilitate a variabilei aleatoare X.

Proprietăţile densităţii de probabilitate:

1) f ( x) ≥ 0 ;
b
2) ò f ( x )dx = 1 .
a

EXEMPLE:

I. Să se determine constanta „c”, astfel încât funcţia


f : [a, b] → R , f ( x ) = c , să fie densitate de probabilitate a unei
variabile aleatoare X.
1) f ( x ) ≥ 0 , oricare ar fi x ∈ [a, b] , deci c ≥ 0 ;
b b
1 .
2) f ( x )dx = c ⋅ dx = c ⋅ x |ba = c (b − a ) = 1 c=
a a
b−a
æ x ö
Deci: X : ç 1 , x ∈ [a, b] este o variabilă aleatoare
ç f ( x) =
è b−a
numită variabilă aleatoare continuă uniformă pe intervalul [a , b] .

II. Să se determine constanta „k”, astfel încât funcţia


f : [0, ∞) → R , f ( x ) = k ⋅ e − x , să fie densitate de probabilitate a
unei variabile aleatoare X.
1) f ( x ) ≥ 0 , oricare ar fi x ≥ 0 , deci k ≥ 0 , f fiind o funcţie
exponenţială
∞ ∞

f ( x )dx = k ⋅ ò e − x dx = k ⋅ Γ(1) = k = 1 , unde Γ( a ) = ò0 x e dx
a −1 − x
2) ò
0 0

este integrala Γ a lui Euler.


Deci X : æçç ö
x
÷ , x ≥ 0 este o variabilă aleatoare pe
−x ÷
è f (x) = e ø
intervalul [0, ∞) .

Reprezentarea grafică a densităţii de probabilitate:

Pentru funcţia de la exemplul I, reprezentarea grafică este:

funcţia este continuă pe [a , b]


1
-
b−a
A =1

0 a b

Pentru funcţia de la exemplul II, reprezentarea grafică este:

1 -

A =1

Într-adevăr, derivata funcţiei f este f ' ( x ) = −e − x < 0 ,


oricare ar fi x > 0 ; şi lim f ( x ) = 0 ; f (0) = 1 .
x →∞

X 0 ∞
f' - - - - - - - - - - - - - - -
f 1 0

şi deci graficul densităţii de probabilitate f (x ) este cel de mai sus.


Funcţia de repartiţie a unei variabile aleatoare:

Prezentarea unei variabile aleatoare prin funcţia de


probabilitate f ( xi ) sau prin densitatea de probabilitate prezintă
aspecte diferite. Considerăm evenimentul ( X < x ) , x ∈ R .

DEFINIŢIE: Se numeşte funcţie de repartiţie a variabilei


aleatoare X, funcţia F : R → R dată de F ( x ) = P( X < x ) .

OBSERVAŢIE: Variabila aleatoare X este discretă


(continuă), după cum funcţia de repartiţie F (x ) este o funcţie
discretă (continuă).

Calculul funcţiei de repartiţie:

1) Fie variabila aleatoare discretă :


x
æx Κ xi xi +1 Κ xn ö
X : çç 1
è p1 Κ pi pi +1 Κ pn

F ( x ) = P( X < x ) = pi = f ( xi )
xi < x xi < x

Reprezentarea grafică este următoarea:

1- (
p1 +...+pn−1- (

p1 + p2 - (
p1 - (

0 x1 x2 x3 ……….. x n −1 xn
1
EXEMPLU: X : æçç
0 2 ö
è 0,3 0,5 0,2

F (x )
1- (
0,3+0,5- (

0,3 -(
x
0 1 2

2) Fie variabila aleatoare continuă:


æ x ö,
X : çç ÷÷ x ∈ [a, b] .
è f ( x) ø

F (x )
f (x )

) (
a b

Putem lărgi domeniul de definiţie al funcţiei f deoarece F


se consideră pe R .
x
F ( x) = ò f (t )dt
−∞
. Reprezentarea grafică a funcţiei de

repartiţie continuă F (x ) are următoarea formă:


F (x )

1-

0 x
æ x ö
EXEMPLU: X : çç −x
, x ≥ 0.
è f ( x) = e

x x
F ( x) = f (t )dt = e−t dt = −e−t |0x = −e− x + 1 = 1 − e− x ;
−∞ 0

F ' ( x ) = e − x > 0 ; F ' ' ( x ) = −e − x < 0 .


Prin urmare, graficul funcţiei F este:

F (0) = 0 ; lim F ( x ) = 1 .
x→∞

Proprietăţi ale funcţiei de repartiţie:

P1. 0 ≤ F ( x ) ≤ 1 , oricare ar fi x ∈ R .

Demonstraţie: F ( x ) = P( x < 1) , şi deci fiind o probabilitate, rezultă


proprietatea P1.

P2. F (x ) este nedescrescătoare, adică, oricare ar fi x1 ≥ x 2 , rezultă


că F ( x1 ) ≥ F ( x 2 ) .

Demonstraţie: ( X < x1 ) = ( X < x1 ) ∪ ( x1 ≤ X < x 2 ) .


P ( X < x ) = P ( X < x1 ) + P ( x1 ≤ X < x 2 ) .
1 4 2 4 32 1 4 2 43 1 4 4 2 4 43
F ( x2 ) F ( x1 ) ≥0

ì F ( x ) = 0, x ≤ a
P3. Dacă x ∈ [a, b] , atunci í
î F ( x ) = 1, x > b
Consecinţe: lim F ( x ) = 0 , lim F ( x ) = 1 .
x → −∞ x →∞
CAPITOLUL 9

CARACTERISTICI NUMERICE ALE VARIABILELOR


ALEATOARE

9.1. Media; definiţie, proprietăţi

Fie X variabilă aleatoare pe câmpul de probabilitate


(Ω, K , P ) .
æ xi ö
X : çç
DEFINIŢIE : Fie ÷÷ , unde i = 1, Κ , n .
è i
p = f ( x )
i ø

Atunci valoarea medie variabilei aleatoare discrete X este


n
M (X ) = xi f ( xi ) .
i =1

DEFINITIE : Fie X : æçç


x ö
, unde x ∈ [a, b] . Atunci
è f ( x)
valoarea medie a variabilei aleatoare continue X este
b
M (X ) = x ⋅ f ( x )dx .
a

OBSERVAŢIE : Pentru n → ∞, trebuie ca seria



xi f ( xi ) să fie convergentă. Pentru a sau b tinzând către − ∞ sau
i =1
+ ∞ , trebuie ca integrala improprie să fie convergentă.

EXEMPLE:

1
1) X : æçç
2 3 ö
÷÷ , M ( X ) = 1 ⋅ 0,2 + 2 ⋅ 0,5 + 3 ⋅ 0,3 = 2,1 .
è 0,2 0,5 0,3 ø
æ x ö ∞
÷ , x ≥ 0 , M ( X ) = ò0 xe dx = Γ( 2) = 1 .
−x
2) X : çç −x ÷
è f ( x ) = e ø

Proprietăţi ale mediei:

æ x ö
P1. Fie X : çç i ÷ , i = 1, Κ , n . Dacă λ ≤ xi ≤ µ , atunci :
÷
è f ( xi ) ø
λ ≤ M(X ) ≤ µ .
n
Demonstraţie: M ( X ) = å xi f ( xi )
i =1
Adunând aceste relaţii pentru valorile indicelui i = 1, Κ , n , obţinem:
n n
λ ⋅ f ( xi ) ≤ xi ⋅ f ( xi ) ≤ µ ⋅ f ( xi ) ⋅ λ ⋅ å f ( xi ) ≤ M ( X ) ≤ µ ⋅ å f ( xi ) ,deci
i =1 i =1
n
λ ≤ M(X ) ≤ µ , deoarece å f (x ) = 1.
i =1
i

P2. M ( k ) = k , adică media unei constante este o constantă.

Demonstraţie: X : æçç ö÷÷ , M (k ) = k ⋅ 1 = k .


k
è1ø

P3. Media unei constante înmulţită cu o variabilă aleatoare este


egală cu constanta înmulţită cu media variabilei aleatoare.
Adică: M ( a ⋅ X ) = a ⋅ M ( X ) .
æx Κ xn ö n n
Demonstraţie: Fie X : çç 1 ÷, åp = 1 , M ( X ) = å xi ⋅ pi .
Κ pn ÷ø
i
è p1 i =1 i =1

a ⋅ x1 Κ a ⋅ xn ö
Atunci a ⋅ X : æç ÷.
ç p p n ÷ø
è 1 Κ
M(a ⋅ X) = a ⋅ x1 ⋅ p1 +Κ + a ⋅ xn ⋅ pn = a ⋅ (x1 ⋅ p1 +Κ + xn ⋅ pn ) = a ⋅ M(X) .

P4. Dacă X şi Y sunt două variabile aleatoare, atunci :


M ( X + Y ) = M ( X ) + M (Y ) .

Fie X : æç i ö÷ ,
n
x
Demonstraţie:
çp ÷ i = 1, Κ , n , M ( X ) = å xi ⋅ pi ,
è iø i =1

n
æ yj ö m

åp i =1 şi fie Y : çç ÷÷ , j = 1, Κ , m , M (Y ) = å y j ⋅ q j ,
i =1 è qj ø j =1
m
æ xi + y j ö
å q j = 1 . Atunci X + Y : çç ÷÷ , i = 1, Κ , n , j = 1, Κ , m .
j =1 è pi ⋅ q j ø
n m n m n m n m
M(X +Y) = åå(xi + yj ) ⋅ pi ⋅ qj =ååxi ⋅ pi ⋅ qj +ååyj ⋅ pi ⋅ qj =åxi ⋅ pi åqj +
i=1 j=1 i=1 j=1 i=1 j=1 i=1 j=1
n m
+ å pi å y j ⋅ q j = M ( X ) + M (Y ) .
i =1 j =1
P5. Dacă X şi Y sunt independente, atunci: M(X ⋅Y) = M(X) ⋅ M(Y) .
æx ⋅ y ö
Demonstraţie: X ⋅ Y : ç i j ÷ , i = 1, Κ , n , j = 1, Κ , m .
çp ⋅q ÷
è i jø
n m n m
M ( X ⋅ Y ) = å å xi y j pi q j = å xi pi å y j q j = M ( X ) ⋅ M (Y )
i =1 j =1 i =1 j =1

9.2. Dispersia; definiţie, proprietăţi

− 2 −1 1
Fie X : æçç

÷÷ , M ( X ) = 0 . Observăm că
è 0,1 0,4 0,4 0,1ø
valorile lui X nu diferă mult de medie.
− 1000 − 5 5 1000 ö
Fie Y : æçç ÷ , M (Y ) = 0 . Observăm că
è 0,1 0,4 0,4 0,1 ÷ø
valorile lui Y diferă mult de medie.
Împrăştierea valorilor lui Y este mai mare decât
împrăştierea valorilor lui X.

x x2 Κ xn ö
Fie X : æç 1 şi fie M(X) media sa. Construim
ç p p Κ p ÷÷
è 1 2 nø

variabila aleatoare ξ = X − M ( X ) , numită abaterea variabilei


aleatoare X de la media sa. Fie m=M(X).

æ x − m x2 − m Κ xn − m ö
ξ : çç 1 ÷
è p1 p2 Κ pn ÷ø

OBSERVAŢIE: M(ξ ) = M[X − m] = M(X ) − M(m) = M(x) − m = 0.

Deci nu putem utiliza media variabilei aleatoare abatere


pentru a determina împrăştierea faţă de media sa. Din acest motiv,
ca o măsură a împrăştierii valorilor unei variabile aleatoare X faţă de
media sa, vom lua dispersia, notată cu D(X), unde:
D( X ) = σ 2 = M (ξ 2 ) . Dispersia este media pătratului variabilei
aleatoare de abatere ξ .
æ ( x − m) 2 ( x2 − m) 2 Κ ( xn − m) 2 ö
ξ 2 : çç 1 ÷.
÷
è p1 p2 Κ pn ø

ξ 2 = [ X − M ( X )]2 = X 2 − 2 M ( X ) ⋅ X + M 2 ( X ) .
Atunci dispersia va fi :
D(X) = M(ξ 2 ) = M(X 2 ) − 2M( X)M(X) + M2 (X) = M(X 2 ) − M 2 (X) .
Rezultă astfel că D( X ) = M ( X 2 ) − M 2 ( X ) .

EXEMPLE :

−1 0 1 ö æ1 0ö
1) X : æçç ÷÷ , M( X ) = 0 ; X 2 : çç ÷÷ , M( X ) = 0,6
2

è 0,3 0,4 0,3ø è 0,6 0,4ø


D( X ) = M ( X ) − M ( X ) = 0,6 .
2 2

æ−1000 0 1000ö æ 0 106 ö


2) Y : çç ÷÷ , M(Y) = 0; Y 2 : çç ÷÷ , M (Y 2 ) = 600000
è 0,3 0,4 0,3 ø è0,4 0,6 ø
D (Y ) = M (Y ) − M (Y ) = 600000 .
2 2

æ x ö ∞
÷ , x ≥ 0 , M ( X ) = ò0 xe dx = Γ( 2) = 1
−x
3) X : çç −x ÷
è f ( x ) = e ø
æ x 2
ö ∞
X 2 : çç ÷ , x ≥ 0 , M ( X ) = ò x 2 e − x dx = Γ(3) = 2! = 2
−x ÷
è f ( x) = e ø
0

D( X ) = M ( X 2 ) − M 2 ( X ) = 2 − 1 = 1 .

Proprietăţi ale dispersiei:

P1. Dispersia unei constante este egală cu zero. Adică D( a ) = 0 ,


unde a este o constantă.

Demonstraţie: D (a ) = M (a 2 ) − M 2 (a ) = a 2 − a 2 = 0 .

P2. Dispersia unei constante înmulţită cu o variabilă aleatoare este


egală cu produsul dintre pătratul constantei şi dispersia variabilei
aleatoare. Adică: D ( a ⋅ X ) = a 2 ⋅ D ( X )

Demonstraţie: D(a ⋅ X ) = M (a2 ⋅ X 2 ) − M 2 (a ⋅ X ) = a2 M ( X 2 ) −


− a 2 M 2 ( X ) = a 2 [ M ( X 2 ) − M 2 ( X )] = a 2 D( X ) .

P3. Dacă X şi Y sunt independente, atunci D(X +Y) = D(X) + D(Y)

Demonstraţie: D( X + Y ) = M [( X + Y ) 2 ] − M 2 ( X + Y ) =
= M( X 2 + 2XY + Y 2 ) − [M( X ) + M(Y )]2 = M( X 2 ) + 2M( X )M(Y ) +
+ M (Y 2 ) − M 2 ( X ) − 2 M ( X ) M (Y ) − M 2 (Y ) = D( X ) + D(Y ) .

Consecinţa 1: D æç å X i ö÷ = å D ( X i ) , unde variabilele X i


r r

è i =1 ø i =1
sunt independente, i = 1, Κ , r .
Consecinţa 2: D( a + X ) = D( X ) .
Consecinţa 3: Dacă Y = a ⋅ X + b , atunci D (Y ) = a 2 D( X ) .
Consecinţa 4: Dacă Z = X − Y , atunci D(Z) = D( X ) + D(Y ) .
Într-adevăr, putem scrie Z = X − Y = X + ( −Y ) şi deci
D(Z) = D( X ) + D[(−1)Y ] = D( X ) + (−1) D(Y ) şi deci D(Z ) = D( X ) + D(Y ) .
2

TEOREMĂ: Fie X 1 , X 2 , Κ , X n variabile aleatoare cu


n

åX i
1 n
aceeaşi medie şi dispersie. Fie Y =
n
i =1
= å X i , media
n i =1
aritmetică a veriabilelor X i . Atunci D(Y ) = 1 å D( X i ) .
n

n i =1
Demonstraţie: D(Y ) = Déê 1 å X i ùú = 12 ⋅ n ⋅ åD( X i ) = 1 D( X i ) .
n n

ë n i=1 û n i =1 n

9.3. Abaterea medie pătratică

DEFINIŢIE: Se numeşte abatere medie pătratică a unei


variabile aleatoare X, rădăcina pătrată din dispersia variabilei
aleatoare.

Abaterea medie pătratică, σ = D ( X ) , are în principiu


proprietăţi corespunzătoare dispersiei.
9.4. Momentele unei variabile aleatoare X

Momentele unei variabile aleatoare sunt valori tipice ale


variabilei. Există două tipuri de momente: momente iniţiale şi
momente centrate.

DEFINIŢIE: Momentul iniţial de ordinul k al unei


variabile aleatoare X este media variabilei aleatoare X k .
mk = M ( X k ) , k = 1,2, Κ

Cazuri particulare:
m1 = M ( X ) , m2 = M ( X 2 ) , deci D( X ) = m2 − m12 .

DEFINIŢIE: Momentul centrat de ordinul k al unei


variabile aleatoare X este media variabilei aleatoare [( X − M ( X )) k ] .
µ k = M [( X − M ( X )) k ] , k = 1,2, Κ

Cazuri particulare:
µ1 = M[ X − M ( X )] = 0 , µ2 = [X − M( X)]2 = D( X) .

æx Κ xn ö
În cazul unei variabile aleatoare discrete, fie X:ç 1 ,
çp Κ p
è1 n

æxk Κ xnk ö æ ( x − m) k Κ ( x n − m) k ö
atunci Xk : ç 1 şi ( X − m) k : çç 1 ÷.
÷
çp Κ p Κ
è1 n è p1 pn ø
n n
Prin urmare mk = M( X k ) = xik pi şi µk = M[(X − m)k ] = å( xi − m)k pi ,
i=1 i=1

k = 1,2, Κ , n .

În cazul unei variabile aleatoare continue, fie


æ x ö ì0, x ∈ ( −∞, a ) ∪ (b, ∞)
X : çç , x ∈ [ a , b] , f ( x ) = í , momentele
è f ( x) f ( x ), x ∈ [a , b]
b b
vor fi mk =
a
x k f ( x )dx şi µ k = òa
( x − m ) k f ( x ) dx , k = 1,2, Κ , n .

Fie F(X) funcţia de repartiţie. Atunci mk = ò x k dF (x) şi
−∞

µk = ò ( x − m) dF ( x) .
k
−∞
Relaţia dintre momentele iniţiale şi cele centrate:

ék ù k
µk = M[X − M(X)]k = M[X −m]k = Mêå(−1)k Ckjmj X k− j ú = å(−1) j Ckjmj M(X k− j )
ë j=0 û j=0
j
Dar M ( X k − j ) = m k − j . Deci avem: µ k = å ( −1) j Ckj m j mk − j .
k =0
OBSERVAŢIE : Pentru k=2 , obţinem :
2
µ2 = åC2j m j mk− j = C20m2 − C21m1m1 + C22m2m0 .
j=0

Dar m0 = M ( X 0 ) = M (1) = 1 şi m1 = m .
Atunci µ 2 = m2 − m12 + 0 = m2 − m12 = D ( X ) .

9.5. Funcţia generatoare de momente a unei variabile aleatoare

Funcţia generatoare de momente a unei variabile aleatoare


se introduce pentru simplificarea calculului momentelor.

DEFINIŢIE: Se numeşte funcţie generatoare de momente


a unei variabile aleatoare X, valoarea medie a variabilei e tX , unde
t∈R.
Notăm funcţia generatoare de momente cu g : R → R , dată
de g (t ) = M ( e tX ) .

x x2 Κ xn ö
Fie X : æç 1
ç p p Κ p ÷÷
o variabilă aleatoare discretă,
è 1 2 nø

æ e tx1 e tx2 Κ e txn ö


deci e tX = çç ÷ , iar funcţia generatoare de
÷
è p1 p 2 Κ pn ø
n
momente este g(t) = M (etX ) = åetxi pi .
i =1

æ x ö,
Fie X : çç ÷÷ x ∈ [a, b] , o variabilă aleatoare continuă,
è f ( x) ø
æ e tx ö
deci e tX = ç
ç ÷ , x ∈ [a, b] , iar funcţia generatoare de momente
è f (x ) ÷ø
b
este g(t ) = M (etX ) = ò etx f ( x)dx .
a
Proprietăţi ale funcţiei generatoare de momente:

P1. g (0) = 1

Demonstraţie: g (0) = M ( e t⋅0 ) = M (1) = 1

P2. Dacă X 1 , X 2 , Κ , X n sunt variabile aleatoare independente cu


funcţiile generatoare de momente g1 (t ), g 2 (t ),Κ , gn (t ) , atunci funcţia
generatoare de momente a variabilei aleatoare
X = X 1 + X 2 + Κ + X n , este g(t ) = g1 (t ) ⋅ g2 (t ) ⋅ Κ ⋅ gn (t ) .

Demonstraţie:
g (t ) = M ( e tX ) = M ( e t ( X 1 + X 2 +Κ + X n ) ) = M [e tX1 ⋅ ⋅e tX 2 ⋅ Κ ⋅ e tX n ] =
= M(etX1 ) ⋅ M(etX2 ) ⋅Κ ⋅ M(etXn ) = g1(t) ⋅ g2 (t) ⋅Κ ⋅ gn (t) .

P3. Dacă variabila aleatoare X admite momente finite de orice



ordin, atunci g (t ) = tk
⋅ mk .
k = 0 k!

Demonstraţie: Dezvoltăm în serie Taylor (Mc Laurin) pe e tX . Ştim


t t2 tk
că e t = 1 + + + Κ + + Κ .
1! 2! k!
Atunci e tX va avea forma :

t t2 tk tk k .
e tX = 1 + X + X 2 + Κ + X k + Κ = X
1! 2! k! k =0 k!

é ∞ tk k ù ∞ tk ∞
tk
g(t ) = M (etX ) = M ê X = M( X k ) g(t ) = mk .
ëk =0 k! k =0 k! k =0 k!

P4. Funcţia generatoare de momente este de n ori derivabilă în


raport cu t şi g ( k ) (0) = mk sau g ( k ) (t ) |t =0 = mk .

Demonstraţie:
x2 Κ
a) Fie variabila aleatoare discretă X : æç 1
x xn ö
çp ÷.
è 1 p2 Κ pn ÷ø
n
g (t ) = å e txi ⋅ pi
i =1
n
g ' (t ) = å xi ⋅ e txi ⋅ pi
i =1
n
g ' ' (t ) = å xi2 ⋅ e txi ⋅ pi
i =1
………………………….
n
g ( k ) (t ) = å xik ⋅ e txi ⋅ pi
i =1
Înlocuind pe t cu zero, obţinem:
n
g ( k ) (0) = å xik ⋅ pi = mk
i =1

b) Fie variabila aleatoare continuă X : æçç


x ö
÷÷ , x ∈ [a, b] .
è f ( x) ø
b
g(t ) = ò etx f ( x)dx
a
b b
g' (t ) = ò x ⋅ etx f ( x)dx Þ g' (0) = ò x ⋅ e0 f ( x)dx = m1
a a
b b
g' ' (t) = ò x ⋅ e f ( x)dx Þ g' ' (0) = ò x 2 f ( x)dx = m2
2 tx
a a
……………………………………………………
b b
g (k ) (t ) = ò x k ⋅ etx f ( x)dx Þ g (k ) (0) = ò x k f ( x)dx = mk
a a

9.6. Funcţia caracteristică a unei variabile aleatoare

Funcţia caracteristică a unei variabile aleatoare X se


foloseşte tot pentru calculul momentelor.

DEFINIŢIE: Se numeşte funcţie caracteristică a variabilei


aleatoare X , valoarea medie a variabilei e itX , adică c(t) = M(eitX ) ,
unde t ∈ R .
æ x x2 Κ xn ö
Fie X : çç 1 ÷÷ o variabilă aleatoare discretă,
p
è 1 p 2 Κ p nø

æ eitx1 eitx2 Κ eitxn ö


deci eitX = ç ÷ , iar funcţia caracteristică este
çp ÷
è 1 p2 Κ pn ø
n
c (t ) = M ( e itX ) = å e itX ⋅ p j .
j =1
Fie X : æçç
x ö
÷÷ , x ∈ [a, b] , o variabilă aleatoare continuă,
è f ( x) ø
æ e itx ö
deci e itX = çç ÷÷ , x ∈ [a, b] , iar funcţia caracteristică este
è f (x ) ø
b
c (t ) = M ( e itX ) = ò e itX f ( x ) dx .
a

−1 1 ö æ e −it e it ö
EXEMPLU: Fie X : æçç ÷÷ , iar e itX = çç ÷÷ .
è 0,5 0,5 ø è 0,5 0,5 ø
Funcţia caracteristică este :
c(t) = M(eitX ) = e−it ⋅ 0.5 + eit ⋅ 0,5 = 0,5⋅ (e−it + eit ) .
Dar e iθ = cos θ + i sin θ şi e − iθ = cos θ − i sin θ , deci putem scrie
e iθ + e − iθ e iθ + e − iθ
cos θ = şi sin θ = .
2 2i
Astfel, funcţia caracteristică va fi :
c(t ) = 0,5 ⋅ (cost − i sin t ) + 0,5 ⋅ (cost + i sin t ) = cost .

Proprietăţi ale funcţiei caracteristice:

P1. Funcţia caracteristică c(t) este o funcţie uniform continuă pe R

P2. c(0) = 1

Demonstraţie: c(0) = M ( e i 0 t ) = M ( e 0 ) = M (1) = 1 .

P3. Dacă X 1 , X 2 , Κ , X n sunt variabile aleatoare independente cu


funcţiile caracteristice c1 (t ), c2 (t ), Κ , cn ( t ) , atunci funcţia
caracteristică a variabilei aleatoare X = X 1 + X 2 + Κ + X n este
c(t ) = c1 (t ) ⋅ c2 (t ) ⋅Κ ⋅ cn (t )

Demonstraţie:
c(t ) = M ( e itX ) = M [e it ( X1 + X 2 +Κ + X n ) ] = M [e itX1 ⋅ e itX 2 ⋅ Κ ⋅ e itX n ] =
= M ( e itX 1 ) ⋅ M ( e itX 2 ) ⋅ Κ ⋅ M ( e itX n ) = = c1 (t ) ⋅ c2 (t ) ⋅Κ ⋅ cn (t ) .
n
Consecinţa 1: Dacă Y = å λk ⋅ X k , λk ∈ R , unde
k =1

X1, X2,Κ , Xn sunt variabile aleatoare independente cu funcţiile


n
caracteristice c1 (t ), c2 (t ), Κ , cn ( t ) , atunci cY (t ) = ∏ c X ( λk t ) .
k
k =1
Consecinţa 2: Un produs de funcţii caracteristice este tot o
funcţie caracteristică. În particular, dacă c(t) este funcţia
caracteristică a variabilei aleatoare X , atunci [c(t )]n este tot o
funcţie caracteristică.

P4. Fie c X (t ) funcţia caracteristică a variabilei aleatoare X şi fie


Y = α ⋅ X . Atunci cY (t ) = c X (α ⋅ t ) .

Demonstraţie: cY (t ) = M ( e itY ) = M ( e itαX ) = c X (α ⋅ t ) .

P5. Fie variabila aleatoare X şi c X (t ) funcţia sa caracteristică. Fie


Y = aX + b . Atunci cY ( t ) = c X ( at )e ibt .

Demonstraţie:
cY (t) = M(eitY ) = M(eit(aX+b) ) = M[ei(at) X ⋅ eitb] = e itb M [e i ( at ) X ] = e itb c X ( at ) .

P6. Fie variabila aleatoare X şi c(t) funcţia caracteristică. Atunci



(it ) k
c (t ) = å ⋅ mk .
k = 0 k!

Demonstraţie:

é ∞ (it) k k ù ∞ (it) k (it ) k
c(t) = M (eitX ) = M êå X ú=å M( X k ) = å mk , unde
ëk =0 k! û k =0 k! k =0 k !

(it ) k k .
e itX = å X
k =0 k !

1 (k ) 1
P7. mk = [c (t )] |t =0 = k c ( k ) (0)
ik i

Demonstraţie:
x2 Κ
a) Fie variabila aleatoare discretă X : æç 1
x xn ö
çp ÷.
è 1 p2 Κ pn ÷ø
æe itx1
e itx2
Κ e ö
itxn
eitX = çç ÷
÷
è p1 p2 Κ pn ø
n
c( t ) = å e ⋅ pj
itx j

j =1
n
c' (t ) = å ix j ⋅ e ⋅ pj
itx j

j =1

………………………….
n
c ( k ) (t ) = å i k x kj ⋅ e ⋅ pj
itx j

j =1

Înlocuind pe t cu zero, obţinem:


n
c ( k ) (0) = i k å x kj ⋅ p j Þ c ( k ) (0) = i k M ( X k ) = i k ⋅ mk
j =1

1 (k )
Deci mk = c (0) , k = 1,2, Κ , n .
ik
c) Fie variabila aleatoare continuă X : æçç
x ö
÷÷ , x ∈ [a, b] .
è f ( x) ø
æ e itx ö
e itX = çç ÷÷
è f (x ) ø
b
c(t ) = ò eitx f ( x)dx
a
b
c' (t ) = ò i ⋅ x ⋅ eitx f ( x)dx
a
…………………………….
b
c(k ) (t ) = ò i k ⋅ x k ⋅ eitx f ( x)dx
a
Înlocuind pe t cu zero, obţinem:
b
c(k ) (0) = i k ⋅ ò ⋅ x k ⋅ eitx f ( x)dx = i k mk
a
1 (k )
Deci mk = c (0) , k = 1,2, Κ , n .
ik

9.7. Normarea (reducerea) unei variabile aleatoare X

Fie variabila aleatoare X cu M ( X ) = m şi D ( X ) = σ 2 .


X −m
DEFINIŢIE: Variabila aleatoare Z = se numeşte
σ
variabila normată a variabilei aleatoare X (sau redusa variabilei
aleatoare X).

Proprietăţi ale variabilei normate:

P1. M ( Z ) = 0
Demonstraţie: M ( Z ) = M æç 1 X − m ö÷ = 1 M ( X ) − m = 0
èσ σø σ σ

P2. D( Z ) = 1
Demonstraţie: D(Z) = Dæç X − mö÷ = 12 [D(x) − D(m)] = 12 ⋅σ2 =1, deoarece
è σ ø σ σ
D(m) = 0 .

9.8. Valoarea mediană

DEFINIŢIE: Se numeşte valoare mediană a variabilei


aleatoare X numărul Me care satisface relaţia
P( X < Me) = P( X > Me) , adică valoarea pentru care variabila
aleatoare X are aceeaşi probabilitate de a fi mai mare şi mai mică
decât ea.

Relaţia P( X < Me) = P( X > Me) se mai scrie şi sub forma


1
F ( Me) = 1 − F ( Me) sau 2 F ( Me) = 1 sau F ( Me) = .
2
1
Deci Me este soluţia ecuaţiei F ( x ) = . În cazul unei
2
æ x ö
variabile aleatoare continue X : çç ÷÷ , x ∈ [a, b] , mediana se va
è f ( x) ø
determina din ecuaţia ò f ( x )dx = 1 .
Me

a 2

EXEMPLU:
Să se determine mediana variabilei aleatoare continue
æ x ö
X :ç 1 ÷ , x ∈ [0,3] .
ç (2 x + 1) ÷
è 12 ø
Me 1 1 1
ò0 12 (2 x + 1)dx = 12 [ Me + Me] = 2 Þ Me + Me − 6 = 0 .
2 2

Me1 = −3 ∉ [0,3] şi Me2 = 2 . Deci Me = 2 .

9.9. Modul (valoarea cea mai probabilă)

DEFINIŢIE: Se numeşte modul (valoarea cea mai


probabilă) a variabilei aleatoare X acea valoare pentru care funcţia
de probabilitate f ( xi ) , pentru variabila aleatoare discretă, respectiv
densitatea de probabilitate f (x ) este maximă.

OBSERVAŢIE: În cazul variabilei aleatoare continue,


maximul funcţiei f (x ) se obţine prin rezultatele cunoscute ale
analizei matematice

În cazul variabilelor aleatoare discrete se procedează astfel:

EXEMPLU: Să se determine modul variabilei aleatoare


binomiale.
æ x ö, x x n− x
X : çç ÷÷ x = 0,1,..., n , f ( x ) = Cn p q .
è f ( x ) ø
Presupunem că funcţia f (x ) are o valoare maximă x * .
Atunci f (x* −1) < f (x* ) şi f ( x * ) > f ( x * + 1) .
f ( x* ) şi f ( x * + 1)
Deci obţinem (1) >1 (2) < 1.
f ( x * − 1) f ( x* )
Cx px qn−x n!(n − x* + 1)!(x* −1)! p n − x* + 1 p
* * *
f ( x* )
= x*−n1 x*−1 n−x*+1 = ⋅ = ⋅ >1Þ
f ( x −1) Cn p q
*
x*!(n − x* )!n! q x* q
Þ x*q < np− x* p + p Þ x* ( p + q) < np+ p Þ x* < np+ p , deoarece p+q =1.
f ( x* + 1) n − x* p
= * ⋅ < 1 Þ x* ( p + q) > np − q Þ x* > np − q .
f ( x* ) x +1 q

Deci np − q ≤ Mo ≤ np + p .
9.10. Covarianţa (corelaţia)

Fie variabilele aleatoare X, cu media M ( X ) = m X şi


dispersia D( X ) = σ x2 şi Y, cu media M (Y ) = mY şi dispersia
D (Y ) = σ y2 .
Calculând dispersia sumei celor două variabile aleatoare
obţinem:
D( X + Y ) = M[(X + Y − mX − mY )2 ] = M{[(X − mX )2 + (Y − mY )2 ]} =
= M [( X − m X ) 2 ] + M [(Y − mY ) 2 ] + 2 M [( X − m X )(Y − mY )] .

DEFINIŢIE: Media M[( X − mX )(Y − mY )] se numeşte


covarianţa celor două variabile şi se notează cov( X , Y ) .

Efectuând produsul, obţinem şi o altă expresie a coverianţei:


cov(X,Y) = M[XY−mY X −mXY + mX mY ] = M(XY) −mY M(X) −mX M(Y) + mX mY =
= M ( XY ) − m X mY deoarece M( X ) = mX şi M (Y ) = mY .

OBSERVAŢIE: Dacă X şi Y sunt variabile aleatoare


independente, atunci cov( X , Y ) = 0 . Reciproc nu este adevărat.

9.11. Coeficientul de corelaţie

Fie X, Y două variabile aleatoare cu dispersiile σ X2 şi


X − m X şi
σ Y2 finite şi nenule şi mediile m X şi mY . Fie X ' =
σX
Y − mY
Y'= variabilele aleatoare normate corespunzătoare.
σY
(M(X’)=0, M(Y’)=0, D(X’)=1, D(Y’)=1) .

DEFINIŢIE: Se numeşte coeficient de corelaţie a


variabilelor aleatoare X şi Y, coverianţa variabilelor aleatoare
normate X’ şi Y’ şi îl notăm cu ρ ( X , Y ) .
ρ ( X , Y ) = cov( X ' , Y ' )
Avem:
é X − mX Y − mY ù M[(X − mX )(Y − mY )] cov(X,Y)
ρ(X,Y) = cov(X' ,Y' ) = Mê , = =
ë σX σY úû σXσY σXσY
Proprietăţi ale coeficientului de corelaţie:

P1. Dacă X şi Y sunt independente, atunci ρ ( X , Y ) = 0 .

Demonstraţie: Deoarece cov( X , Y ) = 0 în cazul unor variabile


aleatoare independente, şi ρ ( X , Y ) = cov( X , Y ) = 0 .
σ XσY

P2. − 1 ≤ ρ ( X , Y ) ≤ 1 , pentru orice X şi Y.

Demonstraţie:
M(X’)=0, M(Y’)=0, D(X’)=0, D(Y’)=0 , deci M ( X ' 2 ) = 1 şi
M (Y ' 2 ) = 1 .
Din egalitatea ( X '±Y ' ) 2 = ( X ' 2 ±2 X ' Y '+Y ' 2 ) obţinem :
M [( X '±Y ' ) 2 ] = M ( X ' 2 ) ± 2M ( X ' Y ' ) + M (Y ' 2 ) = 2 ± 2M ( X ' Y ' ) .
Cum M ( X 'Y ' ) = cov(X ' ,Y ' ) , obţinem: 1 ± ρ ( X , Y ) ≥ 0 , adică
− 1 ≤ ρ( X ,Y ) ≤ 1.

P3. Dacă pentru două constante reale a şi b variabila aleatoare


ì1, a > 0
Y = aX + b , atunci ρ ( X , Y ) = í .
î− 1.a < 0

Demonstraţie: Ştim că M(Y ) = mY = amX − b şi D(Y ) = σY2 = a2σ X2 .


Atunci vom obţine:
cov(X ,Y ) = M[( X − mX )(Y − mY )]M[(X − mX )(aX + b − amX − B)] =
= M[(X −mX )(aX−amX )]= aM[(X −mX )(X −mX )]= M[(X −mX )2 ] = aD( X ) = aσ X2 .

cov( X , Y ) aσ X2 aσ X2 a
ρ ( X ,Y ) = = = = = ±1 .
σ Xσ Y σ Xσ Y | a | σ X | a |
2

9.12. Caracteristici ale formei de repartiţie. Simetrie şi


asimetrie.

DEFINIŢIE: Variabila aleatoare X definită de funcţia f(x)


este simetrică faţă de valoarea medie m dacă f (m − ε ) = f (m + ε ) ,
oricare ar fi ε > 0 .
SIMETRICĂ

m −ε m m +ε

ASIMETRICĂ

m −ε m m +ε

Proprietăţi:

P1. Pentru o repartiţie simetrică, media, mediana şi modul coincid.

P2. Momentele centrate de ordin impar pentru o repartiţie simetrică


sunt nule µ 2 k +1 = 0 .

Coeficienţi utilizaţi pentru măsurarea asimetriei:


Coeficientul lui Pearson: α1 = M ( X ) − M 0 ( X ) .
σX
Coeficientul lui Fisher: α 2 = µ 3 .
σX
CAPITOLUL 10

REPARTIŢII CLASICE

10.1. Repartiţii discrete

10.1.1. Repartiţia binomială

DEFINIŢIE: Variabila aleatoare X are o repartiţie


binomială de parametrii n şi p dacă funcţia sa de probabilitate este
dată de probabilitatea pn (x ) din schema urnei lui Bernoulli, adică
f ( x ) = Cnx p x q n− x , x ∈ {0, Κ , n} , p ∈ (0,1) , p + q = 1 . Deci :

æ x ö
X : çç x x n − x ÷÷
è Cn p q ø

I. f (x ) este o funcţie de probabilitate, deoarece:


1) f ( x ) ≥ 0 , evident deoarece Cnx > 0 , p ≥ 0 , q ≥ 0 .
n n
2) f ( x) = Cnx p x q n − x = ( p + q) n = 1n = 1 .
x =0 x =0

II. Pentru calculul mediei şi dispersiei vom folosi funcţia


generatoare de momente.

æ e tx ö
g (t ) = M ( e tX ) ; e tX : ç
ç f ( x ) , x = 0,1, Κ , n
.
è
n n
Deci g(t) = M(etX ) = etxCnx p x qn−x = Cnx ( pet ) x qn−x = ( pet + q)n .
x=0 x=0
n −1
g ' ( t ) = npe t ( pe t + q ) ;
n −1
m1 = g ' (0) = np( p + q ) = np .
g ' ' (t ) = n ( n − 1) p e ( pe + q ) n − 2 + npe t ( pe t + q ) n −1 ;
2 2t t

m2 = g' ' (0) = n(n −1) p2 ( p + q)n−2 + np( p + q)n−1 = n2 p2 − np2 + np =


= n 2 p 2 + np (1 − p ) = n 2 p 2 + npq

Deci: M ( X ) = np şi D( X ) = m2 − m12 = n 2 p 2 + npq − n 2 p 2 = npq.


Funcţia caracteristică:
n n
c(t ) = M (eitX ) = å eitxCnx p x qn−x = åCnx ( p ⋅ eit ) x qn−x = ( p ⋅ eit + q)n
x =0 x=0
Evident, m1 = M ( X ) = c ' ( 0) = np .
1
Analog se calculează m2 = 2 c' ' (0) = m2 p 2 + npq . Prin urmare,
i
D( X ) = m2 − m12 = npq.

10.1.2. Repartiţia hipergeometrică

DEFINIŢIE: Variabila aleatoare X are repartiţie


hipergeometrică dacă funcţia sa de probabilitate este dată de
probabilitatea Pn ( X ) din schema urnei cu bilă nerevenită (Această
schemă presupunea că dintr-o urnă cu N bile, din care a erau albe şi
b erau negre, se extrag n bile. Pn este probabilitatea ca din cele n
x n−x
bile extrase x să fie albe.). Deci f ( x ) = C a CnN −a , x ∈{0,Κ , n} .
CN
æ x ö
ç C x n− x ÷
C
X : ç a N −a ÷
ç Cn ÷
è N ø

I. f (x ) este o funcţie de probabilitate, deoarece:


1) f (x) ≥ 0 , evident deoarece toate combinările sunt mai mari ca
zero.
x n− x
2) å f ( x ) = å Ca CnN −a = 1n å C ax C Nn −−xa =1 .
n n n

x =0 x =0 CN C N x =0
n n
Pentru a calcula suma åf (x) am folosit egalitatea
x=0
åC C
x=0
x
a
n−x
N −a = CNn pe

care o vom demonstra în continuare.


(1 + y ) a (1 + y ) b = (1 + y ) a + b
(1 + y ) a = Ca0 1 + C a1 y + ... + C an −1 y n −1 + C an y n + ... + C aa y a
(1 + y ) b = Cb0 1 + Cb1 y + ... + Cbn −1 y n −1 + Cbn y n + ... + Cbb y b
(1 + y ) a +b = Ca0+b 1 + Ca1+b y + ... + Can+−b1 y n −1 + Can+b y n + ... + Caa++bb y a +b

Coeficientul lui y n din membrul stâng al ultimei relaţii este :


n
y n [Ca0Cbn + Ca1Cbn −1 + ... + Can −1Cb1 + Can Cb0 ] = å Cax Cbn − x .
x =0
n n
Deci åC C
x =0
x
a
n−x
b =C n
a +b Þ åC C
x =0
x
a
n−x
N −a =C .
n
N

II. Media şi dispersia:


n
C xC n−x
M ( X ) = å x a nN −a
x =0 CN
a! a(a − 1)! (a − 1)!
xCax = x =x =a = aCax−−11
x! (a − x)! x( x − 1)!(a − x)! −
( 1)!(
x a − x )!
n n n

å Cax C Nn−−xa = å xCaxC Nn−−xa = a å Cax−−11C Nn−−xa = aC Nn−−11


x =0 x =1 x =1

aCn−1 ( N − 1)!n! ( N − n)! n a a


M ( X ) = Nn −1 = a = a = n = np , p = .
CN (n − 1)!( N − n)! N! N N N

Pentru a calcula dispersia, vom calcula momentul de ordinul doi.


1 n 1 n 1 n
M( X 2 ) = n x2CaxCNn−−xa = n x( x −1)CaxCNn−−xa + n xCaxCNn−−xa , unde
CN x=0 CN x=0 CN x=0
x = x ( x − 1) + x .
2

n n
a! n
(a − 2)! n
x(x −1)Cax = x(x −1) = a(a −1) = a(a −1) Cax−−22
x=0 x=2 x!(a − x)! x=2 (x − 2)!(a − x)! x=2

a(a −1) n x−2 n−x a(a −1) n−2


M(X 2 ) = n
Ca−2 CN −a + M ( X ) = CN −2 + M ( X ) =
CN x=0 CNn
a ( a − 1)n! ( N − n )! ( N − 2)! a n( n − 1) n
= + n = a ( a − 1) +a =
N ! ( n − 2)! ( N − n )! N N ( N − 1) N
na é ( a − 1)( n − 1) ù na an − a − n + N .
= +1 = ⋅
N êë N −1 N N −1

na an − a − n + N n 2 a 2
D( X ) = M ( X 2 ) − M 2 ( X ) =
⋅ − 2 =
N N −1 N
na é an − a − n + N na ù na anN − aN − nN + N − nN + na
2
= ê − = ⋅
Në N −1 N N N ( N − 1)
a ( N − a )( N − n ) n N −a N −n .
=n ⋅ =a ⋅ ⋅
N N ( N − 1) N N N −1
a a N −a
Dar =p q = 1− p = 1− = .
N N N
N −n
Obţinem astfel D( X ) = npq .
N −1

OBSERVAŢIE: Pentru N suficient de mare în raport cu n


N −n N −n n
putem face aproximarea ≈ = 1− . Atunci
N −1 N N
æ n ö.
D( X ) ≈ npqç1 −
è N
Deci dispersia variabilei aleatoare hipergeometrice diferă de
dispersia variabilei aleatoare binomiale cu un factor subunitar ce
tinde către 1 când N → ∞ .

10.1.3. Repartiţia uniformă discretă

DEFINIŢIE: O variabilă aleatoare X are o repartiţie


uniformă discretă dacă funcţia sa de probabilitate este de forma
1
f ( x) = .
n
æ1 2 Κ x Κ nö
X :ç1 1 1 1÷
ç Κ Κ ÷
èn n n nø

I. f (x ) este o funcţie de probabilitate, deoarece:


1) f (x) ≥ 0 , evident
2) å f ( x ) = n 1 = 1
n

x =1 n

II. Media şi dispersia


n
1 1 n 1 n( n + 1) n + 1
M (X ) = å x = å x = =
x =1 n n x =1 n 2 2
n
1 1 n
1 n(n + 1)(2n + 1) (n + 1)(2n + 1)
M ( X 2 ) = å x2 = å x2 = ⋅ =
x=1 n n x=1 n 6 6
(n +1)(2n +1) (n +1) (n +1)(4n + 2 − 3n − 3)
2
D( X ) = M( X 2 ) − M2 ( X) = − = =
6 4 12
( n + 1)( n − 1) n 2 − 1
= =
12 12

10.1.4. Repartiţia Poisson

DEFINIŢIE: O variabilă aleatoare X are repartiţie Poisson


dacă funcţia sa de probabilitate este de forma f (x) = e−λ λ ,
x

x!
x ∈ N , λ > 0.
æ x ö
X : ç −λ λx ÷
çe ÷
è x! ø

I. f ( x ) este o funcţie de probabilitate deoarece:

1) e −λ λ ≥ 0 evident.
x

x!
2) å e −λ λ = e −λ å λ = e −λ ⋅ e λ = 1 , unde å λ este dezvoltarea
∞ x ∞ x ∞ x

x =0 x! x =0 x! x =0 x!
λ
lui e în serie McLaurin.

II. Media şi dispersia le putem determina prin calcul direct:



λx ∞
λx −1
M (X ) = xe −λ = e −λ λ =λ.
x =0 x! x = 0 ( x − 1)!

λx ∞ λx ∞
λx
M(X 2 ) = x2e−λ = x(x −1) ⋅ e−λ + M(X) = e−λ + M(X) =
x=0 x! x=0 x! x=2 (x − 2)!

λ x −2
= λ2 ⋅ e −λ + M ( X ) =λ2 ⋅ e −λ e λ + M ( X ) = λ2 + λ .
x = 2 ( x − 2)!

D( X ) = M ( X 2 ) − M 2 ( X ) = λ2 + λ − λ2 = λ .

Funcţia caracteristică a variabilei aleatoare Poisson:


∞ ∞
(λ ⋅ eit ) x
c(t) = åeitx f ( x) = e−λ å
− λ (1− eit )
= e−λ eλ⋅e . Prin urmare c(t ) = e
it
.
x=0 x=0 x!
c ' (t ) = e − λ (1−e ) λ ⋅ i ⋅ eit Þ c' (0) = e − λ (1−1) λ ⋅ i ⋅ e0
it

1 1
M ( X ) = m1 = c' (0) = λ ⋅ i ⋅ e −λ⋅0 = λ
i i
c ' ' ( t ) = e − λ (1−e ) ( λ ⋅ i ⋅ e it ) 2 + e − λ (1−e ) λ ⋅ i 2 ⋅ e it
it it

c' ' (0) = e − λ (1−1) λ2 ⋅ i 2 ⋅ e 0 + e − λ (1−1) λ2 ⋅ i 2 ⋅ e 0 = i 2 ( λ2 + λ )


1
m2 = 2 c' ' (0) = λ2 + λ .
i
Prin urmare: D( X ) = m2 − m12 = λ2 + λ − λ2 .

10.2. Repartiţii continue

10.2.1. Repartiţia continuă uniformă

DEFINIŢIE: O variabilă aleatoare X , continuă, are


repartiţie uniformă dacă funcţia sa de probabilitate este de forma
1
f ( x) = , x ∈ ( a , b) .
b−a

I. f (x ) este o funcţie de probabilitate deoarece:


1) f ( x ) ≥ 0 evident, deoarece b > a .
b b 1 1 b b−a
2) f ( x )dx = dx = dx = =1
a a b−a b−a a b−a

II. Media şi dispersia:

b 1 b 1 x 2 b b2 − a 2 a + b
M ( X ) = ò xf ( x )dx =
b − a òa
xdx = ⋅ |a = =
a b−a 2 2(b − a) 2
b b 3 − a 3 a 2 + ab + b 2
M ( X 2 ) = ò x 2 f ( x) = =
a 3(b − a ) 3
a + ab+ b a + 2ab+ b2
2 2 2
D( X ) = M( X 2 ) − M 2 ( X ) = − =
3 4
4a 2 + 4ab + 4b 2 − 3a 2 − 6ab − 3b 2 ( a − b) 2
= = .
12 12

10.2.2. Repartiţia exponenţială negativă

DEFINIŢIE: O variabilă aleatoare X are o repartiţie


exponenţială negativă de parametru µ dacă funcţia sa de
probabilitate este de forma f (x) = µ ⋅ e−µ⋅x , x ≥ 0 , µ > 0 .
I. f (x ) este o funcţie de probabilitate deoarece:
1) f ( x ) ≥ 0 evident.
∞ ∞
2) ò f ( x )dx = ò
0 0
µ ⋅ e − µ ⋅x dx = − e − µ ⋅x |0∞ = 0 + 1 = 1

II. Media şi dispersia:


∞ ∞ ∞
M ( X ) = ò xf ( x )dx = ò xµ ⋅ e − µ ⋅ x dx = − xe − µ ⋅ x |0∞ + ò e − µ ⋅x dx =
0 0 0
1 1
− e − µ ⋅x |0∞ = .
µ µ
În rezolvarea integralei am folosit metoda integrării prin părţi, unde
u( x ) = x , du = dx , v( x ) = −e − µ ⋅x , dv = µ ⋅ e − µ ⋅ x dx
∞ ∞ 2 ∞
M ( X 2 ) = ò x2 µ ⋅ e−µ⋅xdx = −x2e−µ⋅x |0∞ +2ò xe−µ⋅x = 0 + ò xµ ⋅ e−µ⋅x =
0 0 µ 0
2 1 2
= ⋅ = 2.
µ µ µ
Integrala a fost calculată tot prin metoda integrării prin părţi, unde
u( x ) = x 2 , du = 2 xdx , v( x ) = −e − µ ⋅x , dv = µ ⋅ e − µ ⋅ x dx .
2 1 1
D( X ) = M ( X 2 ) − M 2 ( X ) = 2 − 2 = 2 .
µ µ µ
1
σ ( X ) = D( X ) = .
µ
Putem calcula media şi dispersia şi astfel:
∞ ∞
M ( X ) = ò xf ( x )dx = ò x ⋅ µ ⋅ e − µ ⋅ x dx
0 0

Făcând schimbarea de variabilă µ ⋅ x = y Þ x = y Þ dx = 1 dy şi


µ µ
observând că limitele de integrare se păstrează, obţinem:
∞ y 1 1 ∞ 1 1
M (X ) = µò ⋅ e − y ⋅ dy = ò ye − y dy = Γ( 2) =
0 µ µ µ 0 µ µ
La fel, M ( X 2 ) = ò x 2 f ( x )dx =µ ò x 2 e − µ⋅ x dx = µ ò 2 e − y 1 dy =
2
∞ ∞ ∞ y

0 0 0 µ µ
1 ∞ 2 −y 1 2 .
= 2 ò y e dy = 2 Γ(3) = 2
µ 0 µ µ
Prin urmare, D ( X ) = M ( X 2 ) − M 2 ( X ) = 22 − 12 = 12 .
µ µ µ
Repartiţia exponenţială are proprietatea M(X) =σX = 1 .
µ
Repartiţiile exponenţială şi Poisson sunt utilizate în
modelarea şi rezlovarea problemelor legate de firele de aşteptare
care apar în activitatea economică.

10.2.3. Repartiţia normală

DEFINIŢIE: O variabilă aleatoare X are o repartiţie


normală dacă funcţia sa de probabilitate este de forma
2
1 æ x −m ö
1 − ç ÷
f ( x) = e 2 è σ ø , unde m ∈ R , σ > 0 (1)
σ 2π
Pentru a pune în evidenţă parametrii m şi σ , densitatea de
probabilitate se mai notează n( x; m, σ ) , x ∈ R , σ > 0 .
I. f (x ) este funcţie de probabilitate, deoarece:
1) n( x; m, σ ) ≥ 0 , evident, din definiţie.
2
1 æ x −m ö
∞ ∞ 1 − ç ÷
2) ò−∞
n ( x; m, σ )dx = 1 sau ò−∞ σ 2π è
⋅ e 2 σ ø
dx = 1 .

x−m 1
Notăm = y , dx = dy Þ dx = σ ⋅ dy .
σ σ
2
1 æ x −m ö

1 1
∞ 1 − ç ÷ ∞ 1 − y2 1 ∞ − y2
ò dx = ò σ ⋅ dy = ò
2è σ ø
⋅e ⋅e 2
e2
dy = = 1,
−∞
σ 2π −∞
σ 2π 2π −∞

1
∞ − y2
deoarece se ştie că integrala Euler-Poisson ò
−∞
e 2
dy = 2π .
Graficul funcţiei de probabilitate depinde de parametrii m
şi σ , forma curbei rămânând (structural) aceeaşi, şi anume forma
cunoscută sub numele de clopotul lui Gauss.

EXEMPLU: n( x;0, σ )

- ≈ 0,4 = 1
σ 2π

-1 0 1
1) Faţă de parametrul m , curbele n( x, m, σ ) reprezintă de fapt
translaţii de-a lungul axei ox, menţinându-şi forma şi mărimea.

| |
m = −
3 m=0 m = 3
2 2

2) Faţă de parametrul σ , curbele sunt mai ascuţite sau mai plate,


astfel încât aria cuprinsă între graficul curbei şi axa ox să fie egală
cu 1 (unitatea de suprafaţă). Aici σ 1 < σ 2 < σ 3 .

σ1

σ2
σ3

3
m =
2

OBSERVAŢIE: Curba se apropie repede de axa ox . În


raport cu o abatere x − m < 3σ , diferenţa faţă de ox este de ordinul
a 0,003 unităţi. Astfel, repartiţia normală poate fi considerată
definită într-un interval închis şi finit.

Pentru determinarea mediei şi dispersiei vom utiliza funcţia


caracteristică a variabilei aleatoare normale.

c (t ) = M ( e itX ) = ò e itx n ( x; m, σ )dx (2)
−∞
Calculăm pentru început funcţia caracteristică a variabilei
1
aleatoare normale normate: n( y;0,1) = 1 e 2
− y2
(3)

æ y ö æ e ity ö
ç ÷ ç ÷
Y : ç 1 − 2 y 2 ÷ Þ e itY
1 1
: ç 1 − 2 y2 ÷ .
ç e ÷ ç e ÷
è 2π ø è 2π ø
y2 1
∞ 1 ∞ − 1 ∞ − ( y 2 −2ity)
c(t) = ò e−ityn( y;0,1)dy = ò eitye 2
dy = ò 2
e dy =
−∞
2π −∞
2π −∞

1 1 1 1
1 ∞ − ( y 2 − 2 ity +i 2t 2 ) + i 2t 2 1 ∞ − ( y −it ) 2 + i 2t 2
=

ò−∞
e 2 2
dy =

ò
−∞
e 2 2
dy =
1 1
1 1 − t2 1 − t2 z2
1 ∞ − ( y −it )2 − t 2 e 2 ∞ − ( y −it )2 e 2 ∞ −
=

ò −∞
2
e 2
e dy =

ò
−∞
e 2
dy =

ò
−∞
e dz =2

1
− t2

1
e 2 − t2
= = e 2 , unde am folosit substituţia y − it = z Þdy = dz.

Observăm, de asemenea, că utilizând această substituţie limitele de
integrare nu se schimbă.

Ultima integrală este integrala Euler-Poisson. Ea este egală


cu 2π şi se calculează astfel:
z2 z2 1
∞ − dt ∞ −
∞ − ∞
ò−∞ e
0
2
dz = 2 ò e
0
2t 0
2
dz = 2 ò e it
= 2 ò t 2 e −t dt = 2π .

În calculul de mai sus am folosit substituţia :


1 2 dt z2 dt .
z = t Þ zdz = dt Þ dz = ; = t Þ z = 2t Þdz =
2 z 2 2t
Prin urmare, funcţia caracteristică a variabilei aleatoare
1
− t2
normale normate n ( y ; 0 ,1 ) este cY (t ) = e 2 (4)

Fie variabila aleatoare X=α⋅Y+β. Atunci cX (t) = eiβ⋅tcY (α⋅ t) (5)

Demonstraţie:

c X = M (e itX ) = M [eit (α ⋅Y + β ) ] = M [e itα ⋅Y eitβ ] = e itβ M [e i ( tα )Y ] = e itβ cY (t ) .

2
1 æ x −m ö
1 − ç ÷
Fie variabila aleatoare normală n( x; m, σ ) = e 2è σ ø .
σ 2π
x −m
Facem substituţia = y Þx =σ ⋅ y + m Þ X =σ ⋅Y + m, unde
σ
Y = N ( y;0,1) . Aşa cum am văzut, pentru variabila aleatoare
1
− t2
normală normată, funcţia caracteristică este cY ( t ) = e 2 .
Deci conform (5) avem:
1
− σ 2t 2
c X ( t ) = cσY + m (t ) = e imt cY (σ ⋅ t ) = e imt e 2 .
În concluzie, funcţia caracteristică a variabilei normale
1
imt − σ 2t 2
n( x; m, σ ) este c X (t ) = e 2 (6)

Calculul mediei: M ( X ) = m1
c ' ( 0)
m1 =
i
1
itm − σ 2t 2
c' X (t ) = (im − σ 2 t )e 2
Þ c' X ( 0) = ime 0 = im Þ m1 = m .
Deci M ( X ) = m .

Calculul dispersiei: D ( X ) = M ( X 2 ) − M 2 ( X ) = m2 − m12


c ' ' ( 0)
m2 = 2
i
1 1
itm − σ 2t 2 itm − σ 2t 2
c' ' (t ) = −σ 2 e 2
+ (im − σ 2 t ) 2 e 2

c' ' (0) = −σ 2 e 0 + (im )e 0 = −σ 2 − m 2


c ' ' (0) − σ 2 − m 2
m2 = = = σ 2 + m 2 (întrucât, evident, i = −1 )
2

i2 i2
Deci D ( X ) = σ 2 + m 2 − m 2 = σ 2 .

OBSERVAŢIE: Parametrii m şi σ ai repartiţiei normale


reprezintă media şi respectiv abaterea medie pătratică.

Funcţia de repartiţie ; funcţia integrală a lui Laplace:

Fie variabila aleatoare normală de parametrii m şi σ :


æ x ö
X : çç ÷÷ , σ > 0 , m ∈ R , unde, aşa cum ştim,
è n ( x; m, σ ) ø
2
1 æ x −m ö
1 − ç ÷
n ( x; m , σ ) = e 2è σ ø . Funcţia de repartiţie este :
σ 2π
2
1 æ t −m ö
x 1 − ç x ÷
F ( x ) = P ( X < x ) = ò n (t ; m, σ )dt = ò e 2è σ ø
dt (7)
−∞ −∞
σ 2π

x
Notăm: N ( x; m, σ ) = ò n (t ; m, σ )dt funcţia de repartiţie a
−∞
variabilei aleatoare normale.

Fie X o variabilă aleatoare normală cu densitatea de


probabilitate n( x; m, σ ) şi funcţia de repartiţie N ( x; m, σ ) . Dacă
facem schimbarea de variabilă Z = X − m , ştim că Z este o
σ
variabilă aleatoare normală normată cu media m = 0 şi dispersia
σ = 1 . Deci Z are densitatea de probabilitate n (z;0,1) şi funcţia de
repartiţie N ( z;0,1) .
2
1 æ t −m ö
1 − çx ÷
F ( x ) = P ( X < x ) = N ( x; m, σ ) = ò e 2 è σ ø dt (8)
−∞
σ 2π
Pentru calculul integralei (8) facem substituţia:
t−m x−m
= y Þ dt = σ ⋅ dy .Dacă t = x , atunci y = , iar pentru t
σ σ
tinzând către − ∞ şi y tinde către − ∞ . Astfel, vom obţine:
1
y 1 − y2 æx−m ö
F ( x) = ò e 2 σ ⋅ dy = N ( y;0,1) = N ç ;0,1÷ .
−∞
σ 2π è σ ø
Prin urmare, putem scrie:
x−m
P( X < x ) = N ( x; m, σ ) = N ( z;0,1) , unde z = .
σ
Reprezentarea grafică a funcţiei de repartiţie normală
1
normată de forma N ( z;0,1) = 1 ò e 2 dy , unde z = x − m este:
z − y2

2π −∞ σ

N ( z;0,1)
1

1
2
OBSERVAŢIE: Curba N(z;0,1) este simetrică faţă de punctul
æ 1 ö . Dacă facem o translaţie de axe: 1
ç 0, ÷ Φ ( z ) = N ( z;0,1) −
è 2ø 2
(translaţie datorată lui Laplace), obţinem:

Φ (z )

1
2

− 12

OBSERVAŢIE: Φ (z ) este o funcţie simetrică faţă de


origine, şi deci funcţia Φ este o funcţie impară . Prin urmare este
suficient să cunoaştem Φ (z ) pentru z > 0 .

n (z;0,1)

z
Φ ( z ) = n(t ;0,1)dt
0

În toate cărţile şi manualele de teoria probabilităţilor şi


statistică matematică, funcţia Φ(z ) este tabelată.

Prin urmare, avem: N ( z;0,1) = 1 + Φ ( z ) este funcţia de


2
repartiţie a variabilei aleatoare normală normată şi
1 æ x − m ö este funcţia de repartiţie a variabilei
N ( x; m, σ ) = + Φç ÷
2 è σ ø
aleatoare normală nenormată (de parametrii m şi σ ).
Calculul momentelor centrate :

Momentele centrate ale variabilei aleatoare normale sunt


des utilizate, în special în statistica matematică. Astfel, momentul
centrat de ordinul r :
2
1 æ x −m ö
∞ 1 − ç ∞ ÷
µ r = ò ( x − m ) n( x; m, σ )dx = ò ( x − m )
r
e 2è r σ ø
dx
−∞ −∞
σ 2π

Am văzut că:

µ 0 = ò ( x − m ) 0 n( x; m, σ )dx = 1 Þµ 0 = 1 .
−∞
2 2
1æ x−m ö 1æ x−m ö
∞ 1 −2çè ÷ ∞ 1 −2çè ÷
µ1 = ò (x − m) e σ ø
dx = ò x e σ ø
dx −
−∞ σ 2π −∞ σ 2π
2
1 æ x −m ö
∞ 1 − ç ÷
mò e 2è σ ø
dx = 0 Þµ1 = 0
−∞
σ 2π

Notăm : x − m = y Þ x − m = σ ⋅ y Þ dx = σ ⋅ dy şi întrucât
σ
σ > 0 , limitele de integrare se păstrează. Obţinem:
2
1æ x−m ö
∞ 1 −2çè σ r ∞ r −12 y
÷ σ r é r −12 y ∞ ù
2 2

µr = ò σ y
2π ò−∞
r r
e σ ø
yσ ⋅ dy =
e dy = ê− y e |−∞ ú +
−∞
σ 2π 2π ë û
σ ∞
r

1
y 2
∞ 1 2 −
1
y 2

+
2π ò−∞
(r − 1) y r−2e 2 dy = σ2(r −1)ò σr−2 yr−2
−∞

e dyÞµr =σ2(r −1)µr−2

În rezolvarea acestei integrale am aplicat metoda integrării


1 1
− y2 − y2
prin părţi, unde f = y r −1 Þ f ' = (r − 1) y r−2 , g ' = ye 2
Þ g = −e 2 .

Deci:
µ 2 = σ 2 (2 − 1) = σ 2
µ 3 = σ 2 (3 − 1) µ1 = 0
µ 4 = σ 2 (4 − 1) µ 2 = 1 ⋅ 3 ⋅ σ 4
µ5 = 0
……………………………….
µ 2 q+1 = 0
µ 2 q = 1 ⋅ 3 ⋅ Κ ⋅ ( 2q − 1)σ 2 q
10.2.4. Repartiţia Gamma

DEFINIŢIE: O variabilă aleatoare X are repartiţie Gamma


dacă funcţia sa de repartiţie este de forma:
ì 1 −
x

ï x a
e b
, x > 0 , unde ∞
f ( x; a, b) = í Γ( a + 1)b a +1 Γ(a + 1) = ò x a e − x dx
0
ï0, x ≤ 0
î
şi a > −1 , b > 0 .

I. f (x ) este funcţie de probabilitate, deoarece:


1) f ( x; a, b) ≥ 0 , evident
x x
∞ ∞ 1 − 1 ∞ 1 −
2) ò−∞
f (x; a, b)dx = ò
0 Γ(a +1)ba+1
xae b dx = ò
Γ(a + 1) b
0 a+1
xae b dx =

x
Notăm = y Þ x = b ⋅ y Þ dx = b ⋅ dy
b
1 ∞ 1 1 ∞ Γ(a + 1)
= ò
Γ(a + 1) 0 b a +1
ba y a e− y b ⋅ dy = ò
Γ(a + 1) 0
y a e− y dy =
Γ(a + 1)
=1

Amintim câteva proprietaţi ale integralei Γ :

P1. Γ(a ) = (a − 1) Γ(a − 1)


P2. Γ(n ) = (n − 1)!
P3. Γæç 1 ö÷ = π
è2ø

Demonstraţiile acestor proprietăţi se găsesc în cursurile de


analiză matematică.

Funcţia generatoare de momente pentru variabila aleatoare


Gamma:

x
∞ ∞ 1 −
g(t) = M(etX ) = etx f ( x; a, b)dx = etx a+1
xa e b dx, a > −1 b > 0
0 0 Γ(a + 1)b
x
Facem substituţia : y = Þ x = b ⋅ y Þ dx = b ⋅ dy .
b
Avem:
∞ 1 1 ∞
g (t ) = ò e bty a +1
b a y a b ⋅ dy = ò e bty y a ⋅ e − y ⋅ dy =
0 Γ(a + 1)b Γ(a + 1) 0

y

1
1 ∞ 1 ∞ 1 1 ,
= ò
Γ(a +1) 0
e−y(1−bt) yady = +
(1− bt) 0
a 1 ò æ 1 ö
a+1
e y dy =
1−bt a
(1− bt)a+1
Γ(a +1)ç ÷
è1− btø
y

1
∞ 1
deoarece
ò0
æ 1 ö
a +1
e 1−bt
y a dy =1 , fiind densitatea de
Γ( a + 1)ç ÷
è 1 − bt ø
probabilitate a repartiţiei Γ .
Prin urmare, putem scrie că funcţia generatoare de
momente pentru Γ este g ( t ) = (1 − bt ) − ( a +1) .

Momentele iniţiale:

Calculăm momentele iniţiale din relaţia g ( r ) (t ) |t =0 = mr , r = 1,2,....


g' (t) = −(a + 1)(1 − bt)−(a+2) (−b) = b(a + 1)(1 − bt)−(a+2) Þ m1 = g' (0) = b(a + 1)

g ' ' (t ) = b 2 ( a + 1)(a + 2)(1 − bt ) − ( a +3) Þ m2 = g ' ' (0) = b 2 ( a + 1)( a + 2)


……………………………………………………………………….

g(r) (t) = br (a +1)(a + 2) ⋅Κ ⋅ (a + r)(1− bt)−(a+r+1) Þmr = g(r) (0) =


= b r ( a + 1)( a + 2) ⋅ Κ ⋅ ( a + r )
Deci M ( X ) = m1 = b(a + 1) şi
D( X ) = m2 − m12 = b2 (a + 1)(a + 2) − b2 (a + 1)2 = b2 (a + 1)

Momentele centrate:
ék ù
µ k = M [ X − M ( X )]k = M [ X − m]k = M êå ( −1) j Ckj m j X k − j ú =
ë j =0 û
k
= å ( −1) j C kj m j M ( X k − j )
j =0
k
Deci : µ k = å ( −1) j C kj m j mk − j .
j =0
OBSERVAŢIE:
Pentru k = 2 obţinem:
2
µ2 = åC2jmjm2−j =C20m0m2 −C21m1m`1 +C22m2m0 = m2 −m`21 = D(X) , unde :
j=0

m0 = M ( X 0 ) = M (1) = 1 şi m1 = M ( X 1 ) = M ( X ) = m .
Pentru k = 1 obţinem:
µ1 = M ( X − m ) = M ( X ) − M ( m ) = m − m = 0

În cazul repartiţiei Γ , vom obţine:


µ1 = 0 ;
µ 2 = D ( X ) = b 2 ( a + 1) ;
3
µ 3 = å ( −1) j C3j m j m3− j = m3 − 3m ⋅ m2 + 3m 2 m1 − m 3m0 =
j =0

= b (a + 1)(a + 2)(a + 3) −3b(a +1)b2 (a +1)(a +2) +3b2 (a +1)2 b(a +1) −b3(a +1)3 =
3

= b 3 ( a + 1)[( a + 2)( a + 3) − 3( a + 1)( a + 2) + 3( a + 1) 2 − ( a + 1) 2 ] =


= b3 (a +1)[(a2 +5a + 6 −3a2 −9a −6 + 2a2 + 4a + 2] = b3(a +1)2 Þ µ3 = 2b3(a +1)

µ 4 = 3b 4 ( a + 1)( a + 3) .

10.2.5. Repartiţia Beta

DEFINIŢIE: O variabilă aleatoare X are repartiţie Beta


dacă densitatea sa de probabilitate este de forma:
ì 1
ï xa−1 (1 − x)b−1 , x ∈[0,1]
f ( x; a, b) = í β (a, b) , unde a > 0 , b >0 şi
ï0 , x ∈(−∞,0) ∪ (1, ∞)
î
1
β (a, b) = x a−1 (1 − x)b−1dx
0

I. f (x ) este funcţie de probabilitate, deoarece:


1) f ( x; a , b) ≥ 0 , evident oricare ar fi x ∈ [a, b]
2) f ( x; a, b)dx = 1 1
1 1
x a −1 (1 − x ) b−1 dx = β ( a , b) = 1
0 β ( a , b) 0 β ( a , b)

Reamintim câteva proprietăţi ale integralei β ( a, b) :


P1. β ( a, b) = β (b, a )
Demonstraţie: facem substituţia 1 − x = y Þ x = 1 − y Þ dx = −dy .
1 0 1
β (a, b) = ò xa−1(1 − x)b−1 dx = −ò (1 − y)a−1 yb−1dy = ò yb−1(1 − y)a−1 dy = β (b, a)
0 1 0

a −1
P2. β (a, b) = β ( a − 1, b − 1)
a + b −1

a −1 b −1
P3. β (a, b) = ⋅ β ( a − 1, b − 1)
a + b −1 a + b − 2

P4. β ( a, b) = Γ( a ) Γ(b) , unde Γ( a ) = ò x a −1e − x dx


Γ( a + b) 0

II. Calculul momentelor pentru calculul mediei şi dispersiei:

1 1 1 1 1 a+r−1
mr = ò xr f (x;a, b)dx =ò xr xa−1 (1− x)b−1 dx = ò x (1− x)b−1 dx =
0 0 β (a,b) β (a,b) 0

β ( a + r , b ) Γ ( a + r ) Γ (b ) Γ ( a + b) Γ( a + r ) Γ( a + b)
= = ⋅ =
β ( a , b) Γ ( a + r + b) Γ ( a ) Γ( b) Γ( a + r + b) Γ( a )

Dar Γ ( a + 1) = a Γ ( a ) Þ Γ ( a + r ) = ( a + r − 1) Γ ( a + r − 1) =
= (a + r − 1)(a + r − 2)Γ(a + r − 2) = Κ = (a + r − 1)(a + r − 2) ⋅ Κ ⋅ aΓ(a )
Γ(a + r + b) = Γ(a + b + r) = (a + b + r −1)Γ(a + b + r −1) = (a + b + r −1)(a + b + r − 2) ⋅
⋅ Γ(a + b + r − 2) = Κ = (a + b + r − 1)(a + b + r − 2) ⋅ Κ ⋅ (a + b)Γ(a + b)
Deci
(a +r −1)(a +r −2)⋅Κ ⋅ aΓ(a)Γ(a +b) a(a +1)⋅Κ ⋅ (a +r −1)
mr = =
(a +b+r −1)(a +b+r −2)⋅Κ ⋅ (a +b)Γ(a +b)Γ(a) (a +b)(a +b+1)⋅Κ ⋅ (a +b+r −1)

Prin urmare, m1 = a a ( a + 1)
= M ( X ) , m2 = = M (X 2)
a+b ( a + b)( a + b + 1)
Deci dispersia este :
a(a +1) a2 (a + b)(a2 + a) − a2 (a + b +1)
D( X ) = m2 − m12 = − = =
(a + b)(a + b +1) (a + b)2 (a + b)2 (a + b +1)
a 3 + a 2 + a 2 b + ab − a 3 − a 2 b − a 2 ab
= = .
( a + b) ( a + b + 1)
2
( a + b) ( a + b + 1)
2
10.2.6. Repartiţia χ 2
DEFINIŢIE: O variabilă aleatoare X are repartiţie χ 2 dacă
funcţia sa de repartiţie este de forma:
ì 1
k
−1 −
x

ï x 2
e 2
, x>0
ï æk ö 2
k
f ( x; k ) = í Γ ç ÷ 2 , unde k ∈ N * reprezintă
ï è2ø
ïî0 , x ≤ 0
numărul gradelor de libertate.

Mai jos prezentăm graficele funcţiei f ( x; k ) pentru


k = 2,4,6,15 .

k=2

k=4
0,2-

0,15- k=6

0,1- k=15

0,05-
| | | | |
0 5 10 15 20 25

Se vede că graficele sunt asimetrice, dar, pentru valori mari


ale gradelor de libertate ( k > 30) , graficul repartiţiei χ 2 se apropie
de graficul repartiţiei normale.

OBSERVAŢIE: χ 2 se poate obţine din Γ pentru a =


k
−1
2
şi b = 2 .
Funcţia generatoare de momente a variabilei aleatoare Γ
1
este de forma g(t) = = (1 − bt)−(a+1) şi g (0) = mr , r = 1,2,.... .
(r)
a+1
(1 − bt)
Prin urmare, pentru a = k − 1 şi b = 2 , vom obţine funcţia
2
generatoare de momente a variabilei χ 2
de forma:
k

g (t ) = (1 − 2t ) .
2

k k
k − −1 − −1
g ' (t ) = − (1 − 2t ) 2 ( −2) = k (1 − 2t ) 2 g ' (0) = m1 = k
2
æk +2ö
k k
− −1 − −1
g ' ' (t ) = − k ç (1 − 2t ) 2 ( −2) = k ( k + 2)(1 − 2t ) 2
è 2
g ' ' ( 0) = m 2 = k ( k + 2 )

D ( χ 2 ) = m2 − m12 = k 2 + 2k − k 2 = 2k

10.2.7. Repartiţia Student

DEFINIŢIE: O variabilă aleatoare X are repartiţie Student


dacă funcţia sa de repartiţie este de forma:

æ k + 1ö
Γç ÷ k +1
2 − 2
è 2 æ
ø ç1 + ÷
t ö
f (t , k ) = , t ∈ℜ
æ k ö çè k ÷ø
k π ⋅ Γç ÷
è2ø

Se poate arăta că variabila aleatoare „t” este dată de raportul


z k
t= , unde z este variabila aleatoare n( x;0,1) , iar variabila
V
aleatoare V este un χ 2 cu k grade de libertate, independentă de z.

Se arată că lim f (t , k ) = n(t;0,1) , deci t este aproximată


k →∞

suficient de bine de n(x;0,1) pentru k > 30 .

k
M (t ) = 0 , iar D(t ) = .
k −2
n (x;0,1)

x
CAPITOLUL 12

STATISTICĂ MATEMATICĂ

12.1. Noţiuni de teoria selecţiei şi a estimaţiei

Să considerăm o populaţie Γ , finită sau infinită, în sensul


că este formată dintr-un număr finit sau infinit de unităţi. Dacă
populaţia Γ este finită, vaom nota cu N numărul unităţilor ce o
compun, iar N îl vom numi volumul populaţiei .
Studiem populaţia Γ din punctul de vedere al unei
proprietăţi. Această proprietate, care variază (în general) aleator de
la o unitate la alta a populaţiei o vom asimila cu o variabilă
aleatoare X şi o vom numi variabilă aleatoare teoretică definită pe
populaţia Γ .
Caracteristicile probabilistice ale variabilei aleatoare
teoretice X le vom numi caracteristici teoretice, astfel:
m = M ( X ) , media teoretică;
D = σ 2 = D( X ) , dispersia teoretică;
mr = M ( X r ) , momentul iniţial de ordinul r, teoretic;
µ r = M [( X − m) r ] , momentul centrat de ordinul r, teoretic.

Cercetarea unităţilor din populaţia Γ se poate face printr-o


observare totală sau parţială.

 Cercetarea totală (care se efectuează de exemplu sub


formă de recensământ) este o operaţie complexă, care de cele mai
multe ori primeşte mai multe caracteristici ale unităţilor, pentru a
realiza o analiză multilaterală. Practic, o cercetare totală se
recomandă atunci când volumul populaţiei Γ nu este prea mare,
pentru a evita cheltuieli ce pot depăşi avantajele concluziilor trase.

 Carcetarea parţială (selectivă) se efectuează asupra unei


subpopulaţii γ ∈ Γ , subpopulaţie de volum n. Variabila aleatoare
asimilată caracteristicii studiate corespunzătoare subpopulaţiei de
selecţie γ este reprezentativă, ceea ce înseamnă că în subpopulaţia
γ sunt reflectate proprietăţile întregii populaţii Γ .
Construirea eşantionului (subpopulaţiei de selecţie) γ se
face cu unităţi din populaţia Γ , alese după o animită tehnică (după
anumite reguli) numită operaţie de sondaj.
În efectuarea unui sondaj întâlnim două metode de bază:

a) Sondaj cu revenire (sondaj non-exhaustiv):


Fiecare unitate de sondaj extrasă din Γ pentru a fi studiată,
se reintroduce în Γ , după cercetare, putând deci să apară din nou în
procesul de construcţie al eşantionului γ .
Efectuarea sondajului cu revenire are ca schemă
probabilistică urna lui Bernoulli (urna cu bilă revenită).
În acest caz vom spune că s-a efectuat o selecţie repetată de
volum n. Sondajele astfel efectuate sunt:
 Echiprobabile
 Valorile de selecţie astfel obţinute sunt
independente

b) Sondaj fără revenire (sondaj exhaustiv):


Fiecare unitate de sondaj extrasă din Γ pentru a fi studiată
nu mai este reintrodusă în Γ după studiere (cercetare).
Efectuarea sondajului fără revenire are ca schemă
probabilistică schema urnei cu bilă nerevenită.
În acest caz vom spune că s-a efectuat o selecţie nerepetată
de volum n.

OBSERVAŢIE: Aplicarea selecţiei nerepetată nu are sens


decât în cazul când volumul populaţiei Γ este finit. Valorile de
selecţie astfel obţinute sunt dependente.

Selecţia repetată şi selecţia nerepetată sunt aplicate


colectivităţilor omogene.

DEFINIŢIE: O colectivitate este omogenă dacă este


constituită din elemente care sunt susceptibile de a avea sau de a nu
avea caracteristica studiată, cu o aceeaşi pondere.

În cazul când sondajul se efectuează dintr-o populaţie


omogenă, el se numeşte sondaj simplu (selecţie simplă) .
În cazul când populaţia Γ nu este omogenă din punct de
vedere al caracteristicii (al proprietăţii) cercetate dar poate fi
împărţită în subpopulaţii Γi , fiecare în parte omogenă, ca nişte
straturi ale populaţiei Γ , se va efectua aşa numita selecţie
stratificată.

Fie γ ⊂ Γ , o populaţie de selecţie de volum n. Valorile


variabilei teoretice X pentru fiecare unitate din eşantionul γ
determină şirul de valori X 1 , X 2 ,..., X j ,..., X n . Deoarece participarea
oricărei unităţi din populaţia Γ la eşantionul γ este echiprobabilă
(deoarece sondajul se face întâmplător) , fiecare valoare X j din

şirul anterior se realizează în eşantion cu aceeaşi probabilitate 1 .


n
*
Astfel se construieşte variabila de selecţie X , cu repartiţia :

æ X1 X2 Κ Xj Κ Xn ö
X : çç 1
* ÷
1 1 1 ÷
ç Κ Κ ÷
è n n n n ø

Caracteristicile variabilei aleatoare de selecţie X * , numite


caracteristici de selecţie, sunt: (1)
1 n
m* = X = å X j
n j =1
1 n
D* = å ( X j − X )2
n j =1
1 n r
mr* = åXj
n j =1
1 n
µ r* = å ( X j − X ) r
n j =1

OBSERVAŢIE: Eşantionul γ , la rândul lui, are un aspect


aleatoriu determinat în primul rând de caracterul întâmplător al
sondajului. Prin urmare, efectuând alte sondaje se obţin alte
eşantioane şi alte variabile aleatoare de selecţie.

Putem considera că fiecare valoare X j a argumentului


variabilei aleatoare de selecţie X * este, la rândul ei, o variabilă
aleatoare identică din punct de vedere probabilistic cu X, deoarece
poate fi oricare din valorile posibile ale lui X şi deci are aceleaşi
caracteristici ca şi variabila aleatoare teoretică. Adică:
M(X j) = M(X ) , j = 1,..., n
D ( X j ) = D( X ) , j = 1,..., n
M ( X rj ) = M ( X r ) , j = 1,..., n

În cazul când variabila aleatoare empirică X * are repartiţia


de forma :
æ x x 2 Κ xi Κ x k ö k
X * : çç 1
n n Κ n Κ n
÷÷ ; å ni = 1 , unde
è 1 2 i k ø i = 1

x1 , x 2 , Κ , xi , Κ , x k sunt valorile distincte ale lui X j , j = 1,..., n , iar


n1 , n 2 , Κ , ni , Κ , nk sunt frecvenţele de apariţie. Deci relaţiile (1)
devin: (1’)
1 k
m * = x = å xi ni
n i =1
1 k
D * = å ( x i − x ) 2 ni
n i =1
1 k
mr* = å xir ni
n i =1
1 k
µ r* = å ( xi − x ) r ni
n i =1

12.2. Repartiţii de selecţie

O anumită caracteristică (calitativă sau cantitativă) studiată


pe o populaţie oarecare Γ poate fi considerată ca o variabilă
aleatoare unidimensională X care are o densitate de repartiţie f (x )
sau o funcţie de reaprtiţie F (x ) .
f (x ) şi F (x ) se numesc legi teoretice de repartiţie a
variabilei aleatoare X .
Să considerăm acum că pe baza unei selecţii de volum n din
populaţia Γ obţinem valorile X 1 , X 2 , Κ , X n . Cu ajutorul acestor
valori (cu ajutorul acestor date de selecţie) putem calcula diferiţi
indicatori ca de exemplu:
Ø Media de selecţie : X * = X = 1 å X k
n

n k =1
Ø Dispersia de selecţie : D * = 1 å ( X k − X ) 2
n

n k =1

DEFINIŢIE: O funcţie Tn ( X 1 , X 2 ,..., X n ) de datele de


selecţie X 1 , X 2 , Κ , X n se numeşte statistică .
OBSERVAŢIE: Media de selecţie X * şi dispersia de
selecţie D * sunt funcţii de datele de selecţie X 1 , X 2 , Κ , X n , deci
sunt statistici.

Fiecare statistică Tn ( X 1 , X 2 ,..., X n ) (de exemplu media de


selecţie şi dispersia de selecţie) este, datorită caracterului aleatoriu
al selecţiei, o variabilă aleatoare care la rândul ei are anumite legi de
repartiţie (f şi F) numite repartiţii de selecţie .

Cunoaşterea legii de repartiţie (repartiţiei de selecţie) a


statisticii Tn ( X 1 , X 2 ,..., X n ) este deoasebit de importantă deoarece
cu ajutorul ei se poate face studiul probabilistic al statisticii
Tn ( X 1 , X 2 ,..., X n ) , calculându-se probabilităţi de forma P(Tn < a ) ,
P( a < Tn < b) ; M (Tn ) , D(Tn ) , etc.

OBSERVAŢIE: Interpretarea datelor de selecţie are un


dublu înţeles:
Ø X 1 , X 2 , Κ , X n sunt nişte numere cunoscute
Ø X i , i = 1,..., n sunt variabile aleatoare cu aceleaşi
caracteristici ca şi X .

În acest fel, prin intermediul statisticii Tn putem trage


concluzii referitoare la populaţia generală Γ din care a provenit
selecţia (eşantionul) γ .

Teoria probabilităţilor ne oferă procedee de determinare atât


a repartiţiei exacte, cât şi a repartiţiei asimptotice a statisticii Tn .
Prin repartiţia exactă a statisticii Tn înţelegem repartiţia
determinată pentru orice volum al selecţiei n, iar prin repartiţia
asimptotică înţelegem repartiţia limită a statisticii Tn (când
n → ∞) .
Repartiţia exactă este utilă când condiţiile concrete ale
caracteristicii studiate din populaţia Γ impune folosirea unei selecţii
(eşantion) γ de volum redus n ≤ 30 .
În cazul unor selecţii de volum mare ( n > 30 ) folosirea
repartiţiei asimptotice conduce la rezultate suficient de bune.
Repartiţia de selecţie a statisticii Tn este strâns legată şi
unic determinată de legea de repartiţie teoretică a variabilei
aleatoare X care a generat selecţia.

În continuare vom cerceta repatiţiile de selecţie ale unor


statistici Tn construite dintr-o selecţie extrasă dintr-o populaţie cu
repartiţie normală.
1) Tn ( X 1 , X 2 ,..., X n ) = X (media de selecţie)
2) Tn ( X 1 , X 2 ,..., X n ) = D (dispersia de selecţie)

12.3. Repartiţia mediei de selecţie pentru o selecţie dintr-o


populaţie normală

TEOREMA 1: Dacă X 1 , X 2 , Κ , X n este o selecţie de volum


n dintr-o populaţie normală N (m, σ ) , atunci media de selecţie:
1 æ σ ö.
X = ( X 1 + X 2 + Κ + X n ) are o repartiţie N ç m, ÷
n è nø

Demonstraţie:
Deoarece variabila aleatoare de selecţie X k , k = 1,..., n ,
este o variabilă aleatoare normală N (m, σ ) , ea are funcţia
1
imt − σ 2t 2
caracteristică c X k (t ) = e 2 . (vezi capitolul 10, paragraful
10.2.3.)
Aplicând proprietăţile funcţiei caracteristice, obţinem
funcţia caracteristică a variabilei aleatoare 1 X k , k = 1,..., n :
n
t 1 t2
im − σ 2 2
c 1 (t ) = e n 2 n (deoarece caX (t ) = c X ( at ) ).
Xk
n
1 1 1 1
Dar X =
( X1 + X 2 + Κ + X n ) = X1 + X 2 + Κ + X n
n n n n
şi deci, aplicând proprietatea P3 a funcţiei caracteristice (vezi
capitolul 3, paragraful 1.6.), avem:
n
1 t2 2
1æ σ ö 2
å i n m − 2σ 2 n 2
t 1 t2 t 1σ 2 2
n i m− σ 2 2 itm − itm− ç ÷ t
c X (t ) = ∏ e
t
n 2 n
= e i =1 =e 2 n
=e 2è n ø
,
k =1

adică X are repartiţia N æç m, σ ö÷ .


è nø

OBSERVAŢIE: Prin urmare, M ( X ) = m , D ( X ) =


σ2 .
n
CONSECINŢA 1: Considerăm variabila aleatoare redusă
X −m
Z= n pe care o putem scrie sub forma unei expresii liniare
σ
n n
în funcţie de X , adică Z = X− X . Atunci :
σ σ
æ X −m ö n æ n ö n n
M(Z) = Mçç n ÷÷ = M( X) − Mçç m = [M(X) − m] = [m− m] = 0
è σ σ èσ σ σ

æ X −m ö æ n ö æ n ö n n σ2
D( Z ) = Dçç n ÷÷ = Dçç X ÷÷ − Dçç m = D( X ) = 2 ⋅ =1
è σ èσ èσ σ σ n
X −m
Prin urmare, Z = n are repartiţia normală de tip
σ
N (0,1) .

TEOREMA 2: Dacă X 11 , Κ , X 1n1 este o selecţie de volum


n1 din populaţia normală N ( m1 , σ 1 ) şi X 21 , Κ , X 2 n2 este o selecţie
de volum n2 din populaţia normală N ( m 2 , σ 2 ) , şi dacă
1 n1
1 n2
X1 =
n1
åX
j =1
1j
şi X2 =
n2
åX
k =1
2k
sunt mediile de selecţie

corespunzătoare, atunci variabila aleatoare Y = X1 − X2 = X1 + (−X2 )


æ 2 ö
are o repartiţie normală N ç m1 − m2 ; σ 1 + σ 2 ÷ .
2

ç
è n1 n 2 ÷ø
Demonstraţie:
Funcţia caracteristică a mediei de selecţie X1 este
t 2σ 2 t 2σ 22
itm1 − 1 itm2 −
c X (t ) = e 2 n1
şi ale mediei de selecţie X 2 este c X (t ) = e 2 n2
.
1 2

OBSERVAŢIE: Funcţia caracteristică a variabilei aleatoare


t 2σ 22
− itm 2 −
− X 2 este de forma : c− X (t ) = e 2 n2
, conform proprietăţii P4 a
2

funcţiei caracteristice (vezi capitolul 4, paragraful 4.2.3.) .

Deoarece X 1 şi − X 2 sunt variabile aleatoare


independente, funcţia caracteristică a variabilei aleatoare
Y = X 1 − X 2 = X 1 + ( − X 2 ) este (conform proprietăţii P3 a funcţiei
caracteristice):
t 2σ 12 t 2σ 22 t 2 æç σ 12 σ 22 ö
÷
itm1 − itm 2 − it ( m1 − m 2 ) − +
2 çè n1 n 2 ÷
cY (t ) = e 2 n1
⋅e 2 n2
=e ø

æ 2 ö
Prin urmare Y are repartiţia N ç m1 − m2 ; σ 1 + σ 2 ÷ .
2

ç
è n1 n 2 ÷ø

OBSERVAŢIE: Ultima afirmaţie rezultă din faptul că


variabila aleatoare X cu repartiţia N (m, σ ) are funcţia caracteristică
t 2σ 2
imt −
c X (t ) = e 2 .

CONSECINŢA 2: Din teorema 2 rezultă că repartiţia


variabilei aleatoare normate Z = X 1 − X 2 − ( m1 − m2 ) are o
σ 12 σ 22
+
n1 n2
repartiţie de tipul N (0,1) .

12.3.1. Legătura cu variabila aleatoare χ 2 cu n grade de


libertate
Se ştie că variabila aleatoare χ 2 are densitatea de
probabilitate:

ì 1
k
−1 −
x

ï x 2
e 2
, x>0
ï æk ö 2
k
f ( x; k ) = í Γ ç ÷ 2
ï è2ø
ïî0 , x ≤ 0

Se poate demonstra că dacă Z k , k = 1,..., n sunt variabile


n
aleatoare normale N (0,1) , atunci variabila aleatoare å Z k2 este:
k =1
n
χ 2 = å Z k2 , cu n grade de libertate şi are deci densitatea de
k =1
probabilitate :
n x
1 −1 −
h( x ) = n
⋅ x2 ⋅e 2
, x > 0.
ænö
Γç ÷ ⋅ 2 2
è2ø

Ştim că M ( χ 2 ) = n şi D ( χ 2 ) = 2n (vezi capitolul 10,


paragraful 10.2.6).

Este adevărată următoarea teoremă:

TEOREMA 3: Dacă X 1 , X 2 , Κ , X n este o selecţie de


volum n dintr-o populaţie normală N (0,1) , atunci variabila aleatoare
n
Y = å X k2 este o variabilă aleatoare χ cu n grade de libertate.
2

k =1

12.4. Repartiţia dispersiei de selecţie pentru o selecţie dintr-o


populaţie normală

Dispersia D a unei populaţii oarecare Γ poate fi evaluată pe


baza selecţiei X 1 , X 2 , Κ , X n în următoarele moduri:
a) Dacă media m a populaţiei generale Γ este cunoscută, atunci
dispersia de selecţie este dată de: D ' = 1 å ( X k − m ) 2 = S *2 (1)
n

n k =1
b) Dacă media m a populaţiei Γ nu este cunoscută, atunci media o
putem aproxima cu media de selecţie X = 1 å X k şi dispersia de
n

n k =1
selecţie este: D * = 1 å ( X k − X ) 2 = S 2
n
(2)
n k =1
c) În cazul selecţiilor de volum mic, evaluăm dispersia D a
populaţiei Γ cu dispersia de selecţie dată de relaţia :
~ 1 n
D= å
n − 1 k =1
( X k − X )2 = ~s2

În cele ce urmează vom stabili repartiţia unor funcţii de


~
variabilele aleatoare D' , D * , D pentru selecţii dintr-o populaţie
normală. Sunt adevărate următoarele proprietăţi:

TEOREMA 1: Dacă X 1 , X 2 , Κ , X n este o selecţie dintr-o


populaţie N (m, σ ) , atunci variabila aleatoare U ' = nD2 ' are o
σ
repartiţie χ cu n grade de libertate.
2

Demonstraţie:
1 n

nD '
n⋅
n
å (X
i − m)
2
n
æ Xi − m ö
2 n
U'= 2 =
σ
i =1

σ2
= å
i =1
ç
è σ
÷
ø
= å
i =1
Z i2 ,

unde Z i este o variabilă aleatoare cu repartiţia N (0,1) . Conform


teoremei 3 din paragraful anterior, U ' este o repartiţie χ 2 cu n
grade de libertate.
Prin urmare M (U ' ) = n şi D(U ' ) = 2n . Deci :
n
M (U ' ) = 2 M ( D' ) = n Þ M ( D' ) = σ 2
σ
n 2σ 4
D (U ' ) = 2 D( D ' ) = 2n Þ D ( D' ) =
σ n
TEOREMA 2: Dacă X 1 , X 2 , Κ , X n este o selecţie de
volum n dintr-o populaţie N (m, σ ) , atunci variabila aleatoare
~
( n − 1) D
U= are o repartiţie χ 2 cu ( n − 1) grade de libertate.
σ 2

~
Prin urmare, variabila U = ( n − 12 ) D are densitatea de
σ
n −1 x
1 −1 −
probabilitate de forma : h( x ) = x 2 e 2 , x > 0.
æ n − 1 ö n−1
Γç ÷⋅2
è 2 ø

TEOREMA 3: Dacă X 1 , X 2 , Κ , X n este o selecţie de


volum n dintr-o populaţie normală N (m, σ ) , atunci variabila

aleatoare t = X − m ~
~ n , unde σ~ = D , are o repartiţie Student cu
σ
( n − 1) grade de libertate.

CONSECINŢĂ: Dacă X 11 , Κ , X 1n1 este o selecţie de


volum n1 din populaţia normală N ( m1 , σ 1 ) şi X 21 , Κ , X 2 n2 este o
selecţie de volum n2 din populaţia normală N ( m2 , σ 2 ) , şi dacă
1 n1 1 n2
X 1 = å X 1 j şi X 2 =
n1 j =1
å X 2k sunt mediile de selecţie
n2 k =1
~ 1 n1 ~ 1 n2
corespunzătoare, iar D 1= å
n1 −1 k=1
(X1k − X1)2 şi D2 = å(X2k − X2)2 sunt
n2 −1 k=1
dispersiile de selecţie corespunzătoare, atunci variabila aleatoare:

( X 1 − X 2 ) − ( m1 − m2 )
t= ~ ~
( n1 − 1) D + ( n2 − 1) D
n1 + n2 − 2

are o repartiţie Student cu ( n1 + n2 − 2) grade de libertate.

TEOREMA 4: Fie X 1 , X 2 , Κ , X n o selecţie (independentă)


de volum n dintr-o populaţie având o repartiţie oarecare de medie m
şi abatere medie pătratică σ , finite. Atunci X = 1 å X k are,
n

n k =1
pentru n → ∞ o repartiţie normală N æç m, σ ö÷ .
è nø

Demonstraţiile teoremelor enunţate în acest paragraf se


găsesc în /2/ , /1/, /3/ .

12.5. Estimaţie punctuală

Fie variabila de selecţie X * sub una din formele empirice :

æ X1 X2 Κ Xj Κ Xn ö
X * : çç 1 ÷
1 1 1 ÷ , sau
ç Κ Κ ÷
è n n n n ø

æx x2 Κ xi Κ xk ö k
X * : çç 1
n2 Κ ni Κ
÷ , cu
nk ÷ø
ån i = 1.
è n1 i =1

Datorită volumului de selecţie n, modului de efectuare a


sondajului, valorile numerice oferite de selecţie reflectă valorile
variabilei teoretice X care reprezintă caracteristica (proprietatea)
studiată din Γ .
Aceste aprecieri au la bază teorema lui Glivenco (teorema
fundamentală a statisticii matematice) care se referă la legătura
strânsă care există între funcţia de repartiţie teoretică F (x ) a
variabilei aleatoare teoretice X şi funcţia de repartiţie empirică
Fn (x ) .

DEFINIŢIE: Prin funcţia de repartiţie empirică a unei


variabile aleatoare X, după extragerea unei selecţii γ de volum n,
înţelegem funcţia definită de relaţia Fn ( x ) = n x , unde n x reprezintă
n
numărul de observaţii în care a apărut o valoare a variabilei
aleatoare X (a caracteristicii X), mai mică decât x.
Reamintim că funcţia de repartiţie teoretică F (x ) a
variabilei aleatoare X este F ( x ) = P ( X < x ) .

TEOREMA LUI GLIVENCO: Fie Fn (x ) funcţia de


repartiţie empirică corespunzătoare unei selecţii de volum n ce
provine dintr-o populaţie caracterizată de variabila aleatoare X
având funcţia de repartiţie F (x ) . Atunci:
P( lim sup Fn ( x ) − F ( x ) = 0) = 1 .
n →∞ x∈R

Adică, cu cât n este mai mare, cu atât Fn (x ) aproximează


mai corect pe F (x ) .

Conform teoremei lui Glivenco, putem accepta principiul


de bază al teoriei selecţiei:
Variabila aleatoare de selecţie X * converge în lege către
variabila aleatoare teoretică X, iar caracteristicile variabilei de
selecţie converg în probabilitate către caracteristicile
corespunzătoare ale variabilei aleatoare teoretice.

DEFINIŢIE: Operaţia prin care se evaluează parametrii


necunoscuţi ai unei legi de probabilitate se numeşte estimarea
parametrilor.

Estimarea se face pe baza unei selecţii X 1 , X 2 , Κ , X n de


volum n, extrasă din populaţia Γ pe care este definită variabila X,
cu lege specificată, care conţine parametrul ce trebuie estimat.

12.5.1. Estimator; estimator consistent

Fie X variabila aleatoare cu legea f ( x, λ ) care depinde de


un parametru necunoscut λ .
Vrem să-l determinăm pe λ din datele de selecţie ale
variabilei aleatoare de selecţie X * .

DEFINIŢIE: Se numeşte estimaţie punctuală a


parametrului λ , o anumită funcţie (statistică) λ* = λ* ( X 1 ,..., X n ) cu
ajutorul căreia tragem concluzii asupra valorii necunoscute a
parametrului λ .
OBSERVAŢIE:Estimatorul λ* astfel definit este o variabilă
aleatoare (fiind o funcţie care depinde de valorile de selecţie
X 1 , X 2 , Κ , X n ), pe când λ reprezintă o valoare constantă a
variabilei aleatoare teoretice X .
Orice valoare λ*C (valoare calculată a estimatorului λ* )
determinată de o anumită selecţie reprezintă o valoare estimată
pentru λ .

DEFINIŢIE: Funcţia de estimaţie λ* = λ* ( X 1 ,..., X n ) ,


pentru care lim P ( λ* − λ < ε ) = 1 se numeşte funcţie de estimaţie
n →∞

consistentă, iar estimatorul λ* se numeşte estimator consistent.

12.5.2. Estimator absolut corect; estimator corect

DEFINIŢIE: Estimatorul λ* este un estimator absolut


corect dacă:
1) M ( λ* ) = λ
2) D ( λ* ) → 0
n→∞

Spunem atunci că orice valoare calculată a λ*C a acestui


estimator, estimează absolut corect pe λ .

DEFINIŢIE: Estimatorul λ* este un estimator corect dacă:


1) M ( λ* ) → λ
n →∞

2) D( λ* ) → 0
n →∞

Spunem atunci că orice valoare calculată λ*C a acestui


estimator, estimează corect pe λ .

Se poate demonstra următoarea teoremă , a cărei


demonstraţie se găseşte în /2/:

TEOREMĂ: Orice estimator absolut corect este şi un


estimator consistent.
æ x ö
EXEMPLU: Fie repartiţia Poisson X : ç −λ⋅ λx ÷ , x ≥ 0
çe ÷
è x! ø
cu M ( x ) = D( x ) = λ . (vezi capitolul 10, paragraful 10.1.4. ) .
Vom arăta că media de selecţie X = 1 åX j este un estimator
n

n j=1
absolut corect pentru λ .
æ1 n ö 1 n 1
M ( X ) = M çç å X j ÷÷ = å M ( X j ) = ⋅ n ⋅ λ = λ .
è n j =1 ø n j =1 n

æ1 n ö 1 n 1 λ
D ( X ) = Dçç å X j ÷÷ = 2 å D ( X j ) = 2 ⋅ n ⋅ λ = → 0
è n j =1 ø n j =1 n n n →∞
Deci media de selecţie X este un estimator absolut corect
al parametrului λ din repartiţia Poisson.

12.5.3. Estimator de maximă verosimilitate

Fie variabila aleatoare teoretică X cu funcţia de probabilitate


f ( x, λ ) , care depinde de parametrul λ . Acest parametru trebuie
estimat pe baza datelor de selecţie X 1 , X 2 , Κ , X n .
Funcţia de probabilitate f ( x, λ ) , corespunzătoare valorilor
X 1 , X 2 , Κ , X n este f ( X j ; λ ) = P( X = X j ) , j = 1,..., n . Deoarece
variabila de selecţie X * presupune realizat evenimetul
én ù
êΙ ( X = X j )ú , rezultă că însăşi realizarea variabilei de selecţie
ë j =1 û
constituie un eveniment care are un anumit grad de reprezentare a
variabilei teoretice, constituind astfel verosimilitatea de reflectare a
variabilei teoretice X de către variabila de selecţie X * .
Această verosimilitate este măsurată de probabilitatea :
én ù n
L( X1, X2 ,...,Xn ; λ) = PêΙ ( X = X j )ú , adică L( X1, X2 ,...,Xn ; λ) = ∏ f ( X j ; λ)
ë j=1 û j=1
n
L( X 1 , X 2 ,..., X n ; λ ) = ∏ f ( X j ; λ ) , numită funcţia de
j =1

verosimilitate a selecţiei.

Vom determina (estima) parametrul λ punând condiţia ca


verosimilitatea să fie maximă. Punem deci condiţia
n
∂∏ f ( X j ; λ )
∂L( X 1 ,..., X n; λ ) j =1
= 0 sau = 0.
∂λ ∂λ

Deoarece maximul funcţiei L are loc pentru aceleaşi valori


ca şi maximul funcţiei ln L , ecuaţia precedentă poate fi înlocuită
prin una mai avantajoasă din punct de vedere al calculelor :
n ∂ ln f ( X ; λ )
∂ ln L( X 1 ,..., X n ; λ )
= 0 sau å j
= 0.
∂λ j =1 ∂ λ
n ∂ ln f ( X ; λ )
Ecuaţia å j
= 0 se numeşte ecuaţia de
j =1 ∂ λ
verosimilitate maximă.

DEFINIŢIE: Orice soluţie a ecuaţiei de verosimilitate


maximă se numeşte estimator de maximă verosimilitate .

OBSERVAŢIE: În general, un estimator de maximă


verosimilitate este şi un estimator consistent. Adică
lim P ( λ* − λ < ε ) = 1 .
n →∞

EXEMPLU: Să se determine estimatorul de maximă


æ x ö
verosimilitate din repartiţia Poisson X : ç −λ⋅ λx ÷ , x ≥ 0 , unde
çe ÷
è x! ø
λx .
f ( x; λ ) = e − λ
x!
Funcţia de verosimilitate este :
λ j
n n X

L( X 1 ,..., X n ; λ ) = ∏ f ( X j ; λ ) = ∏ e −λ Logaritmând,
j =1 j =1 ( X j )!

obţinem: ln L( X 1 ,..., X n ; λ ) = å {− λ + X j ln λ − ln[( X j )!]}.


n

j =1
Ecuaţia de maximă verosimilitate este:
n

∂lnL n æ 1ö 1n
åX j

= åç−1+ X j ⋅ ÷ = 0 sau −n + åX j = 0 Þλ* = j=1n Þλ* = X .


∂λ j=1 è λø λ j=1

În concluzie, media de selecţie în repartiţia Poisson este un


estimator de maximă verosimilitate pentru parametrul λ .

OBSERVAŢIE: În cazul repartiţiilor X care au funcţia de


probabilitate depinzând de mai mulţi parametri f ( x; λ1 , λ2 ,..., λs ) ,
parametrii λ1 , λ2 ,..., λn se determină din sistemul de ecuaţii
∂ ln L( X 1 ,..., X n ; λ1 ,..., λs )
= 0 , i = 1,..., s .
∂λi

EXEMPLU: Să se determine estimaţiile de maximă


verosimilitate ale parametrilor m şi σ ale unei variabile aleatoare
normale f ( x; m, σ ) cu ajutorul unei selecţii X 1 , X 2 , Κ , X n .
2
1 æ X −m ö
1 − ç ÷
, σ > 0 , x∈R, m∈R .
f ( x ; m, σ ) = e 2è σ ø

σ 2π
n
1
n
1 − å ( X i − m )2
L( X 1 , Κ , X n ; m, σ ) = ∏ f ( X i ; m, σ ) = n
e 2σ 2 i =1

i =1
σ n ( 2π ) 2

n 1 n
2 å
ln L( X 1 , Κ , X n ; m, σ ) = −n ln σ − ln(2π ) − ( X i − m) 2
2 2σ i =1

∂ ln L( X 1 ,..., X n ; m, σ ) 1 2 n
= − ⋅ 2 å ( X i − m)( −1) = 0
∂m 2 σ i =1
∂ ln L( X 1 ,..., X n ; m, σ ) n 1 n
= − + 3 å ( X i − m) 2 = 0
∂σ σ σ i =1

ìn ì 1 n ìm* = X
ïå i ( X − m ) = 0 ï m = å i X ï
ï i=1 ï n i =1 ï n
Þí n Þí Þ
ï 1 ( X − m)2 = n ïσ 2 = 1 ( X − m) 2 ï *
n í å ( Xi − m)2
ïîσ 2 å å i ïîσ =
i=1
i=1
i
ïî n i =1 n
În concluzie, m * şi σ * sunt estimatori de maximă
verosimilitate pentru m şi σ din f ( x; m, σ ) .
12.6. Estimarea prin intervale de încredere

Am văzut că estimaţiile punctuale sunt afectate de erori, ele


reprezentând numai valori aproximative ale adevăratelor valori ale
parametrilor estimaţi. Deoarece o estimaţie variază în precizie, ea
trebuie să fie însoţită de o indicaţie cu privire la precizia ei, adică
cât de aproape poate fi estimaţia de valoarea parametrului pe care
trebuie să-l estimeze. Apare astfel necesitatea de a se indica un
interval despre care să se poată afirma, cu o probabilitate
cunoscută, că acoperă valoarea parametrului estimat, care este o
mărime constantă.

Presupunem că proprietatea studiată este determinată de o


variabilă aleatoare X care are legea de repartiţie teoretică f ( x;θ )
care depinde de parametrul θ .
Se efectuează o selecţie γ de volum n din care obţinem
valorile de selecţie X 1 , X 2 , Κ , X n .
Să presupunem de asemenea că avem două funcţii de
selecţie (statistici) θ ( X 1 , Κ , X n ) şi θ ( X 1 , Κ , X n ) , θ < θ , astfel
încât probabilitatea inegalităţii θ < θ < θ să fie îndeplinită de θ ,
adică :
P[θ ( X 1 , Κ , X n ) < θ < θ ( X 1 , Κ , X n )] = 1 − α (1)
unde α nu depinde de θ .

Pentru o selecţie realizată, funcţiile θ şi θ iau valori bine


determinate şi vom spune că am găsit un interval (θ , θ ) care
acoperă parametrul necunoscut θ [altfel spus θ ∈ (θ , θ ) ] cu un grad
de siguranţă garantat de probabilitatea (1 − α ) unde α este foarte
mic.

DEFINIŢIE:
(i) Intervalul (θ , θ ) se numeşte interval de încredere pentru
parametrul θ (sau interval de estimaţie).
(ii) θ se numeşte limita inferioară a intervalului de încredere.
(iii) θ se numeşte limita superioară a intervalului de încredere.
(iv) Probabilitatea (1 − α ) se numeşte probabilitate confidenţială
sau coeficient de încredere (siguranţă).
OBSERVAŢII:

Ø Parametrul θ este o valoare bine determinată.


Ø Intervalul (θ , θ ) este un interval aleator care variază de la o
selecţie la alta.
Ø Cu cât intervalul (θ , θ ) este mai mic şi α este mai mic, cu
atât estimarea parametrului θ este mai bună. Practic, pentru
α se iau valorile α = 0,05 ; α = 0,01 ; α = 0,02 , etc.

Se consideră variabila aleatoare X cu funcţia de


probabilitate f ( x;θ ) . Ne propunem ca pe baza unei selecţii
X 1 , X 2 , Κ , X n să determinăm un interval de încredere pentru
parametrul θ necunoscut.
Metoda constă în găsirea unei funcţii U ( X 1 , Κ , X n ; θ ) care
depinde de datele de selecţie şi de θ , şi are proprietăţile:
a) U este bine definită pe orice punct din intervalul valorilor
posibile ale lui θ .
b) U este continuă şi monotonă în raport cu θ .
c) Repartiţia sa g (u) nu depinde de parametrul θ şi nici de
alţi parametri.

Atunci, pentru fiecare coeficient de încredere (1 − α ) ,


folosind repartiţia g (u) a statisticii U , putem găsi limitele u1 şi u2
care depind de α , dar sunt independente de datele de selecţie, asftel
încât:
u2
P(u1 < U < u2 ) = ò g (u )du = 1 − α (2)
u1

12.6.1. Intervale de încredere pentru parametrii repartiţiei


normale :

æ x ö,
X : çç ÷÷ x∈R, m∈R, σ >0,
è f ( x) ø
2
1 æ x −m ö
1 − ç ÷
f ( x; m , σ ) = e 2è σ ø

σ 2π
(i) Interval de încredere pentru media m când σ 2 este
cunoscut

Alegem statistica: U ( X 1 , Κ , X n ; m ) = X − m n (1)


σ
care este monotonă şi continuă în raport cu m şi a cărei funcţie de
repartiţie este N (0;1) , cu densitatea:
1 u2
1 − 2⋅ 2
g (u ) = e (2).

Funcţia (2) nu depinde de m şi nici de alţi parametri .


Prin urmare vom putea determina numerele u1 şi u2 astfel
u
încât: P(u1 < U < u2 ) = ò 2 g (u )du = 1 − α , sau:
u1
u2
æ ö
(3) Pç u1 < X − m n < u2 ÷ = 1
u2 −

ç
è σ ÷
ø 2π ò
u1
e 2
du = 1 − α Þ

æu σ uσ ö æ uσ uσ ö
Pç 1 < X − m < 2 − X ÷ = Pç X − 2 < −m < X − 1 ÷ = 1 − α (4)
è n n ø è n nø
Am obţinut deci intervalul de încredere pentru m,
æ uσ uσ ö
çX − 2 ,X − 1 ÷ (5)
è n nø
cu probabilitatea 1 − α .

OBSERVAŢIE: Deoarece între u1 şi u2 avem o singură


relaţie, dată de (3) putem obţine o infinitate de intervale de
încredere cu probabilitatea 1 − α .
Evident, un interval de încredere este cu atât mai bun cu cât
este cât mai mic. Căutăm deci intervalul dat de relaţia (5), de
lungime minimă.
Fie l lungimea intervalului. Atunci l = σ (u2 − u1 )
n
Vom minimiza lungimea intervalului l , cu condiţia (3),
adică rezolvăm problema:
ì σ
ïïmin l = n (u2 − u1 )
í u
ï 2 g (u )du = 1 − α
ïî òu1

Utilizăm metoda multiplicatorilor lui Lagrange:


Fie L(u1 , u2 ; λ ) = σ (u2 − u1 ) + λ ⋅ [ ò 2 g (u )du − (1 − λ )]
u

u1
n
ì ∂L σ
ï ∂u = − n − λ ⋅ g (u1 ) = 0
ï 1 Þ g ( u1 ) = g (u 2 ) , care are soluţiile
í
ï ∂L σ
= + λ ⋅ g (u2 ) = 0
ïî ∂u2 n
u1 = u 2 care nu convine şi soluţia − u1 = u 2

Notăm z = u2 = −u1 . Atunci ecuaţia (4) devine


u2
1 z −
ò e 2
du = 1 − α Þ F ( z) − F (−z) = 1 − α , dar F (− z) = − F ( z) ,
2π −z

deci 2F( z) − 1 = 1 − α Þ F ( z) = 1 − α Þ z = F −1 æç1 − α ö÷ .


2 è 2ø
ìu1 = − z α = z α
1−
Dar z α = − z α Þ ïí 2 2

ïu2 = z1− α
1−
2 2
î 2

Deci intervalul de încredere este :

æ σ σ ö
çX − z α ⋅ <m< X +z α ⋅ ÷
ç
è 1−
2 n 1−
2 n ÷ø

(ii) Interval de încredere pentru media m când σ este


necunoscut

Considerăm funcţia de selecţie U( X1,Κ , Xn ; m) = X − m n = t ,


S
unde S 2 = 1 å ( X i − X ) 2 . Am văzut că t are o repartiţie Student
n

n − 1 i =1
cu ( n − 1) grade de libertate. Analog punctului anterior se poate
arăta că intervalul de încredere este:

æ S S ö
çX −t α ⋅ <m< X +t α ⋅ ÷
ç
è 1− ;n −1
2 n 1− ;n −1
2 n ÷ø

12.7. Estimarea parametrilor unei variabile aleatoare prin


metoda momentelor

Fie populaţia Γ în care studiem o proprietate dată de


variabila aleatoare teoretică X definită pe Γ . Variabila X are
momentele iniţiale şi centrate m r şi µ r cunoscute.
Se efectuează o selecţie γ de volum n şi se consideră
variabila aleatoare de selecţie X * cu momentele iniţiale de selecţie
şi momentele centrate de selecţie m r* , µ r* .

TEOREMĂ: Momentul de selecţie m r* este un estimator


absolut corect al momentului teoretic m r .
Demonstraţie:
m r* este un estimator absolut corect al lui m r dacă
M (mr* ) = mr şi lim D( mr* ) → 0 . Într-adevăr:
n →∞

æ1 n ö 1 1
M ( mr* ) = M çç å X rj ÷÷ = M ( X rj ) = ⋅ n ⋅ mr = m r
è n j =1 ø n n
æ1 n ö 1 n 1 m − mr2
D(mr* ) = Dçç å X rj ÷÷ = 2 å D( X rj ) = 2 ⋅ n ⋅ (m2r − mr2 ) = 2r →0
n→∞
è n j=1 ø n j=1 n n

OBSERVAŢIE: Aplicarea metodei momentelor la


estimarea parametrilor λ1 , Κ , λs a unei funcţii f ( x; λ1 , Κ , λs )
constă în scrierea unui sistem de s ecuaţii pentru cei s parametrii.
Acest sistem se formează prin scrierea primelor s momente ale
variabilei aleatoare teoretice X care sunt egale cu momentele de
acelaţi ordin ale variabilei aleatoare empirice X * .
EXEMPLU: Fie f ( x; λ ) = 1 x λ −1e − x , x > 0 , λ > 0 . Se
Γ( λ )
efectuează o selecţie de volum n : X 1 , X 2 , Κ , X n . Scriem că
momentul de ordinul 1 al variabilei aleatoare X este egal cu
momentul de selecţie de ordinul 1.
ì ∞ 1 ∞ λ −x Γ(λ + 1)
ïïM ( X ) =m1= ò0xf ( x; λ)dx = Γ(λ) ò0 x e dx = Γ(λ) = λ 1n
í Þλ*
= åX j
ïM ( X * ) = m* = 1 X
n n j=1
ïî 1 å j
n i=1

OBSERVAŢIE: Ne putem pune întrebarea ce moment


empiric este cel mai potrivit pentru estimarea momentului teoretic?
Din exemplul anterior rezultă:
1 n
m2 = λ ( λ + 1) Þ λ ( λ + 1) = å X j
n j =1
1 n
m3 = λ ( λ + 1)( λ + 2) Þ λ ( λ + 1)( λ + 2) = å X 3j
n j =1
Se observă chiar că valorile lui λ astfel determinate nu
satisfac (în general) şi ecuaţiile anterioare, deci metoda se complică.
În aceste situaţii este indicată aplicarea metodei intervalelor de
încredere.

12.8. Verificarea ipotezei cu privire la legea de repartiţie a


unei variabile aleatoare

O ipoteză statistică se referă fie la forma legii de repartiţie a


unei populaţii (normală, exponenţială, etc.) fie la parametrii
conţinuţi în această lege (medie, dispersie), şi ea se verifică folosind
rezultatele obţinute într-o selecţie aleatoare extrasă din populaţia
cercetată.
Fie variabila aelatoare X care reprezintă o proprietate
considerată pe o populaţie Γ a cărei repartiţie f ( x, θ ) are o formă
cunoscută, dar care depinde de un parametru necunoscut θ . Ipoteza
conform căreia θ are valoarea θ 0 , se notează : H 0 : θ = θ 0 şi poartă
numele de ipoteza nulă .
Să presupunem că în afara valorii θ 0 , parametrul θ mai poate
avea şi una din valorile θ 1 , θ 2 ,... . Ipotezele H i : θ = θ i , i = 0,1,2,...
se numesc ipoteze admisibile, iar H i : θ = θ i , i = 1,2,... se numesc
ipoteze alternative ale ipotezei nule H 0 .
În cele ce urmează vom considera două ipoteze: ipoteza
nulă H 0 şi alternativa ei, H 1 ca ipoteză contrară ipotezei H 0 ,
explicând în ce constă verificarea unei ipoteze statistice, procedeul
de verificare, precum şi unele noţiuni legate de acestea.

Testul statistic este o metodă sau un criteriu după care


ipoteza de verificat se acceptă sau se respinge. El stabileşte, după
natura observaţiilor, pentru care selecţii ipoteza se acceptă şi pentru
care se respinge.
Datorită caracterului întâmplător al selecţiei, la verificarea
unei ipoteze statistice, există întotdeauna riscul de a lua o decizie
eronată. Când pe baza datelor selecţiei respingem ipoteza H 0 de
verificat, deşi în realitate este adevărată, spunem că am comis o
eroare de genul întâi, iar când acceptăm ipoteza H 0 care în realitate
este falsă, spunem că am comis o eroare de genul doi. Probabilitatea
erorii de genul întâi se numeşte risc de genul întâi (prag sau nivel de
semnificaţie) şi-l notăm cu α , iar probabilitatea erorii de genul doi
se numeşte risc de genul al doilea şi se notează cu β .
Pentru construirea testului statistic cu ajutorul căruia
verificăm ipoteza statistică H 0 trebuie să avem în vedere
următoarele:
a) determinarea unei funcţii (o statistică) T ( X 1 ,..., X n ) de
datele de selecţie numită statistica testului, cu caretestăm
ipoteza H 0 ;
b) valoarea admisibilă a pragului de semnificaţie;
c) ipoteza alternativă H 1 opusă ipotezei H 0 ;
d) regiunea critică W a ipotezei H 0 corespunzătoare statisticii
T a testului, prin care înţelegem acea mulţime de valori ale
statisticii T astfel încât dacă valoarea observată a lui T
aparţine acestei mulţimi, atunci ipoteza H 0 se respinge,
acceptîndu-se H 1 . În caz contrar se acceptă H 0 . Regiunea
critică W este astfel determinată încât probabilitatea
comiterii erorii de genul doi să fie minimă şi probabilitatea
ca T obţinut prin selecţie să-i aparţină când H 0 este
adevărată, să fie egală chiar cu α , adică vor fi îndeplinite
condiţiile:
P(T ∈ W / H 0 ) = α şi P (T ∈ W / H 1 ) = maxim
Conform definiţiei riscului β , putem scrie P(T ∈W / H1) = β ,
unde W este complementara mulţimii W .
Probabilitatea de a respinge H 0 ca falsă (fiind adevărată
H 1 ) adică de a nu comite eroarea de genul doi este:
π (W , H 1 ) = P(T ∈ W / H 1 ) = 1 − β
şi poartă numele de puterea testului, care este cu atât mai mare cu
cât β este mai mic.

Până acum am presupus că repartiţia teoretică a variabilei


aleatoare X este specificată, iar în cele mai multe cazuri este
repartiţia normală.
De foarte multe ori chiar specificarea repartiţiei reprezintă o
ipoteză care trebuie verificată. De aceea, practica statistică pune
problema realizării unei legături între variabila empirică (de
selecţie) X * şi variabila teoretică X .
x x 2 Κ xi Κ x k ö k
Fie variabilele: X * : æçç 1 ÷÷ ; å ni = 1 ,
è n1 n2 Κ ni Κ nk ø i =1
şi X : æçç
x ö
÷÷ .
è f ( x) ø
Se va cerceta dacă şirul numeric al frecvenţelor absolute
empirice ni reflectă legea ipotetică a variabilei teoretice X ,
concretizată în funcţia f ( x; a1 ,..., a k ) .

Rezolvarea acestei probleme presupune următoarele etape:

1. Estimarea parametrilor, făcută ţinând seama de eventualele


semnificaţii pe care le pot avea în legătură cu caracteristicile
distribuţiei teoretice şi de calităţile estimaţiei respective.

2. Se construieşte, după estimarea parametrilor, variabila


pseudo-teoretică:
æx x 2 Κ xi Κ x k ö k
X ' : çç 1 ÷÷ ; å n' i = 1 , făcându-se legătura
è n'1 n ' 2 Κ n' i Κ n ' k ø i =1

între variabila empirică X * şi variabila teoretică X .

Determinarea frecvenţelor absolute calculate ni este


realizată prin intermediul funcţiei de probabilitate, folosind relaţia:
ni*
= f ( x; a1 ,..., a k ) , de unde ni = ni ⋅ f ( x; a1 ,..., a k ) , i = 1,..., n .
*

ni

OBSERVAŢIE: Datorită unor proprietăţi ale au funcţiilor


de probabilitate f ( x ) pentru determinarea frecvenţelor calculate
n' i , de cele mai multe ori se folosesc formulele de recurenţă,
pornindu-se de la valoarea dominantă (cu maximum de probabilitate
a realizării argumentului).

3. Verificarea ipotezei H 0 de concordanţă între repartiţia


empirică şi repartiţia teoretică, ipoteză ce se verifică folosind aşa-
numitele teste de concordanţă .

a) Testul de concordanţă χ 2 :

Studiind funcţia χ 2 = å ( ni − n ' i ) , K.Pearson a arătat că,


k 2

i =1 n'i
în cazul unui sondaj cu revenire în populaţia studiată, când
probabilităţile pi nu sunt apropiate de 0 sau 1, iar produsele
n ' i = ni ⋅ pi , unde pi = f ( xi ) , după estimarea parametrilor, nu sunt
prea mici (practic nu sunt mai mici decât 5), funcţia considerată are
repartiţia χ 2 cu ( s − 1) − k grade de libertate, s fiind numărul de
valori observate, iar k numărul parametrilor estimaţi.

OBSERVAŢII:

Ø Dacă legea presupusă este legea Poisson, ea are un singur


parametru, deci k = 1 , iar numărul gradelor de libertate va fi
( s − 1) − 1 = s − 2 ; dacă legea presupusă este legea normală, atunci
k = 2 şi avem ( s − 1) − 2 = s − 3 grade de libertate.
Ø După cum am precizat mai sus, legea χ 2 condiţia ca
n ' i = ni ⋅ pi să nu fie numere mai mici decât 5. În cazul în care există
astfel de numere, se vor cumula la prima frecvenţă ni mai mare ca
5. Aceasta face ca numărul s să fie modificat corespunzător noii
situaţii, devenind ~ s , iar numărul gradelor de libertate devenind
(~
s − 1) − k . Dacă între repartiţia de selecţie şi repartiţia teoretică
există concordanţă, atunci statistica χ 2 definită în relaţia
k
( ni − n ' i ) 2 trebuie să fie mai mică şi nu va depăşi o valoare
χ2 = å
i =1 n'i
determinată χ (2s −1)− k ;α corespunzătoare numărului gradelor de
libertate ( s − 1) − k şi pragului de semnificaţie α dat. Regiunea
critică a testului va fi dată de inegalitatea χ 2 > χ (2s −1) − k ;α şi deci,
dacă χ 2 ≤ χ (2s −1) − k ;α acceptăm ipoteza H 0 , în caz contrar o
respingem.

b) Testul de concordanţă al lui Kolmogorov:

Din studierea convergenţei funcţiei empirice de repartiţie


F ( x ) către funcţia teoretică de repartiţie F ( x ) , Kolmogorov a
demonstrat următoarea teoremă:
æ λ ö ∞
÷ = K ( λ ) = å ( −1) e 2 λ2 , unde λ > 0 şi
k − k2
lim Pç d n <
n →∞
è nø k = −∞

d n = max Fn ( x ) − F ( x ) .

Funcţia K ( λ ) este calculată în tabele pentru diverse valori


ale lui λ (tabelul distribuţiei Kolmogorov) .
Cu ajutorul acestei teoreme se poate da un criteriu de
verificare a ipotezei H 0 că repartiţia empirică urmează o anumită
lege de repartiţie.
Dacă ipoteza H 0 este adevărată, atunci diferenţele
Fn ( x ) − F ( x ) nu vor depăşi o anumită valoare dα ;n pe care o fixăm
astfel încât: P( d n > dα ;n / H 0 ) = α , unde α este riscul de gradul
întâi. Dar P( d n > dα ;n ) = 1 − P( d n ≤ dα ;n ) .

Luând d α ;n = λα , înseamnă că atunci când H 0 este


n
adevărată şi n suficient de mare avem:
æ λ ö æ λ ö
P ç d n > α ÷ = 1 − Pç d n ≤ α ÷ = 1 − K ( λα ) = α .
è nø è nø
Unui prag de semnificaţie α dat îi corespunde prin relaţia
K ( λα ) = 1 − α o valoare λα astfel încât, pentru un volum n dat al
selecţiei găsim valoarea d α ;n = λα .
n
Regiunea critică pentru ipoteza H 0 este dată de relaţia
λα . Deci:
dn >
n
Ø dacă dn < λα , există concordanţă între Fn ( x ) şi F(x) şi se
n
acceptă ipoteza H 0 .
λ
Ø dacă dn ≥ α , nu există concordanţă şi respingem ipoteza
n
H0 .

EXEMPLU:

Pentru a organiza mai bine serviciul în perioada de vârf, la


un sector al unui magazin se cercetează sosirile cumpărătorilor la
raionul respectiv, cât şi timpul de servire al unei persoane. Astfel,
considerând intervalele de timp de 5 minute, luate la întâmplare în
perioada de vârf, se numără de fiecare dată câte persoane sosesc la
raionul urmărit. Au fost cercetate 200 perioade de câte 5 minute,
obţinându-se rezultatele din tabelul T1 , în care am notat cu x
numărul care arată în câte perioade din cele 200 cercetate am
observat exact x sosiri. S-a măsurat, pe de altă parte, timpul de
servire a 30 cumpărători, luaţi la întâmplare, în perioada de vârf,
obţinându-se datele din tabelul T2 , unde am notat cu y timpul de
servire al unui cumpărător şi cu n y numărul de cumpărători, pentru
care timpul de servire este y. Deoarece variabila aleatoare y este
continuă, crecetarea a fost făcută pe intervale de câte 30 secunde
(0,5 minute), pe care le vom reduce în calcule la jumătăţile lor.

a) Să se testeze ipoteza H 0 că sosirile cumpărătorilor la


raionul considerat sunt de tip Poisson.

b) Să se testeze ipoteza H 0 că timpul de servire a unui


cumpărător are o distribuţie exponenţială.
Tabelul T1 :

NR. SOSIRI ÎN FRECVENŢE


5 MIN. (X) ABSOLUTE ( n x )
0 1
1 16
2 31
3 37
4 41
5 30
6 23
7 13
8 6
9 1
10 0
11 1
12 0
Total 200

Tabelul T2 :

INTERVAL DE FRECVENŢE
TIMP ( yi −1 ; yi ) ABSOLUTE ( n y )
0,5-1 18
1-1,5 8
1,5-2 2
2-2,5 1
2,5-3 1
Total 30

a) Facem o ajustare a repartiţiei empirice din tabelul T1 după o


repartiţie Poisson:
λx
f ( x; λ ) = e − λ , x = 1,2,...
x!
Deoarece media repartiţiei Poisson este egală cu λ , vom
estima parametrul λ prin media de selecţie X , deci:
å x ⋅ n x 800
λ=X= x = = 4.
å n x 200
x
x
Determinăm frecvenţele n' x = 200 ⋅ e −4 ⋅ 4 , calculând întâi
x!
pentru x = 4 , considerată ca cea mai probabilă din tabelul T1 :
44
n' x = 200 ⋅ e −4 ⋅
= 39,1 şi apoi celelalte, folosind formulele de
4!
recurenţă care sunt uşor de dedus: n' x −1 = x ⋅ n ' x , pentru x < 4 şi
λ
λ
n' x +1 = ⋅ n ' x , pentru x > 4 . Rezultatele obţinute se trec în
x +1
coloana n' x a tabelului:

Tabelul T3 :
x nx x ⋅ nx n' x n x − n' x (n x − n'x )2
n'x
1 2 3 4 5 6
0 1 0 3,7 -1,4 0,11
1 16 32 14,7
2 31 62 29,3 1,7 0,10
3 37 111 39 -2 0,11
4 41 164 39,1 1,9 0,99
5 30 150 31,4 1,4 0,06
6 23 138 20,8 2,2 0,29
7 13 91 11,9 1,1 0,10
8 6 48 6,0
9 1 9 2,6
10 0 0 1,0 -2,1 0,44
11 1 11 0,4
12 0 0 0,1
Total 200 800 200 χ 2 = 2 ,14
Pentru a testa ipoteza H 0 , aplicăm testul χ 2 , motiv pentru
care am cumulat valorile mici de pe coloanele lui n x şi n' x . S-a
obţinut:
12
( n − n' x ) 2
χ2 = å x = 2,14
x =0 n' x
Pentru nivelul de semnificaţie α = 0,05 şi numărul gradelor
de libertate 6, găsim χ 02, 05;6 = 12,59 . Avem χ C2 < χ 02, 05;6 , deci
acceptăm ipoteza H 0 , adică sosirile cumpărătorilor la raionul
respectiv sunt de tip Poisson, cu media λ = 4 persoane în 5 minute.

b) Facem aici o ajustare a repartiţiei empirice din tabelul T2 ,


după o repartiţie exponenţială de forma: f ( y ) = µ ⋅ e − µ⋅ y , y > 0 .
Drept valori ale lui y vom considera tabelul T4 mijloacele
intervalelor timpilor de servire şi calculăm valoarea medie a
variabilei empirice cu formula:

Y = M (Y ) =
å y ⋅ n y = 32 = 1,07
å n y 30
Pentru că estimatorul de maximă verosimilitate al
1
parametrului µ este , estimăm pe µ prin: µ = 1 = 30 = 0,925 .
Y Y 32
Pentru a testa ipoteza H 0 vom aplica testul lui
Kolmogorov. În acest scop calculăm mai întâi coloana Fn ( y ) a
funcţiei de repartiţie empirice, cumulând pe fiecare linie frecvenţele
absolute din linia respectivă şi de deasupra ei şi împărţind rezultatul
la 30. De exemplu:
8 + 18
F2 ( y ) = = 0,87
30
Calculăm apoi valorile corespunzătoare ale funcţiei de
repartiţie teoretică F ( y ) folosind formula cunoscută a acesteia:
F ( y ) = 1 − e − µ⋅ y , pentru µ = 0,925
De exemplu: F (2,25) = 1 − e −2, 25⋅0, 925 = 0,87 .

Ultima coloană a tabelului T4 conţine diferenţele


Fn ( x ) − F ( x ) cu cea mai mare dintre ele evidenţiată.
Tabelul T4 :

[ yi −1 − yi ) yi ni y i ⋅ ni Fn ( y ) F ( y) Fn ( y ) − F ( y )
0,5-1 0,75 18 13,50 0,66 0,60 0,00
1-1,5 1,25 8 10,00 0,87 0,75 0,12
1,5-2 1,75 2 3,50 0,93 0,84 0,09
2-2,5 2,25 1 2,25 0,97 0,87 0,10
2,5-3 2,75 1 2,75 1,00 0,94 0,06
Total 30 30,00

Considerând drept nivel de semnificaţie α = 0,01 , tabelul


corespunzător testului lui Kolmogorov dă λα = 1,63 şi cum n = 5
avem:
λα 1,63
= = 0,73 > 0,12 = max Fn ( x ) − F ( x ) = d n
n n
Acceptăm ipoteza H 0 că timpul de servire a unui
cumpărător are o repartiţie exponenţială cu parametrul µ = 0,925 .
CAPITOLUL 13

MATEMATICI FINANCIARE

O sumă de bani S 0 de care dispune partenerul P1 este


plasată partenerului P2 pentru o perioadă de timp t , în anumite
condiţii. La sfârşitul perioadei, P1 obţine o sumă S ( S 0 , t ) > S 0 .

DEFINIŢIE : Se numeşte dobândă corespunzătoare plasării


sumei S 0 pe durata t , o funcţie D : [0, ∞) × [0, ∞ ) → [0, ∞ ) ,
D( S 0 , t ) , care îndeplineşte condiţiile:
1) D este strict crescătoare în raport cu fiecare din variabilele
S 0 şi t .
2) D( S 0 , t ) = 0 ; D(0, t ) = 0 .

OBSERVAŢIE: Condiţia 1 este echivalentă cu


∂D( S 0 , t ) ∂D ( S 0 , t )
> 0 şi > 0.
∂S 0 ∂t

DEFINIŢIE: Se numeşte valoare finală (sau valoare


revenită) a partenerului P1 ce a plasat suma S 0 pe durata de timp t,
valoarea funcţiei S ( S 0 , t ) = S 0 + D ( S 0 , t ) .

DEFINIŢIE:
 Dacă S 0 = 100 u.m. şi t = 1 an, atunci dobânda
corespunzătoare se numeşte procent (notat „ p ”).
 Dacă S 0 = 1 u.m. şi t = 1 an, dobânda corespunzătoare se
numeşte dobânda unitară anuală (se notează cu „ i ”).
p
i= ; p = 100 ⋅ i
100

13.1. Dobânda simplă

DEFINIŢIE: Dobânda calculată asupra aceleiaşi sume pe


toată durata împrumutului se numeşte dobânda simplă (notată D).
Prin urmare, pe întreaga durată de plasare „ t ”, valoarea
sumei S 0 nu se modifică.
Notăm:
 S 0 = suma depusă (împrumutată);
 t = timpul în ani;
 p = procentul;
p
 i= = dobânda unitară;
100
 D = dobânda simplă.

S0 ⋅ p ⋅ t
D = S0 ⋅ i ⋅ t = = D( S 0 , t , i ) (1)
100
Prin urmare, dobânda simplă este direct proporţională cu
suma împrumutată, cu timpul şi cu dobânda unitară (sau procentul).
Să considerăm timpul împărţit în k părţi egale:
k = 2 Þ t 2 - semestre
k = 4 Þ t 4 - trimestre
k = 12 Þ t12 - luni
k = 360 Þ t 360 - zile
În general, t k reprezintă un număr oarecare de asemenea
t
părţi (exemplu: k = 12; t12 = 18 luni). Atunci timpul t = k (în
k
18
exemplul dat t = = 1,5 ).
12
t S ⋅ p ⋅ tk
D = S0 ⋅ i ⋅ k = 0 (2)
k 100k
Dacă k = 360 , deci t se exprimă în zile, obţinem:
t S ⋅ p ⋅ t 360
D = S 0 ⋅ i ⋅ 360 = 0 (2’)
360 360
i
În calculele financiare :
S 0 ⋅ t 360 - se numeşte “număr” , iar
360
- se numeşte “divizor fix” relativ la dobândă pentru i
i
p
dat ( i = - dobânda unitară anuală).
100
Astfel, din (2) obţinem :
S0 ⋅ p ⋅ t2
D= - dobânda pentru t 2 semestru ;
200
S ⋅ p ⋅ t4
D= 0 - dobânda pentru t 4 trimestru.
400

Să presupunem acum că plasamentul nu are loc cu acelaşi


procent “p” pe toată durata de plasare “t”.
t

| | | | | | |
θ1 θ2 θk θm
p1 p2 pk pm

dobânda pentru această perioadă


este S 0 ⋅ i k ⋅ θ k
m
deci: t = å θ k , iar
k =1

p k = 100 ⋅ i k = procentul de plasare pe durata θ k


( k = 1,..., m ) .

n m
Atunci: D ( S 0 , t ) = D ( S 0 ,θ k ) =S 0 i kθ k (3)
k =1 k =1
Cu această formulă se determină dobânda la suma S 0 pentru
m
perioada t , în regim de dobândă simplă, dacă t = å θ k , astfel încât
k =1
pe fiecare perioadă θ k , plasarea se face cu procentul anual
p k = 100i k .

OBSERVAŢIE: Formula (3) constituie rezultatul aplicării


succesive a dobânzii simple pe intervalele ce constituie durata de
plasare.

Dăm o altă expresie pentru formula (2).


p
Deoarece i = , înlocuind în (2) , vom obţine:
100
S 0 ⋅ t 360
D( S 0 , t ) = (4)
36000
p
unde t 360 reprezintă durata în zile a operaţiunii.
Notăm:
 N = N ( S 0 , t 360 ) = S 0 ⋅ t 360 - numărul operaţiunii
 df = df ( p,360) = 36000 - divizorul fix al operaţiunii
p
Cu aceste notaţii, (4) devine:
N
D(S 0 , t ) = = D( N , df ) (5)
df

OBSERVAŢIE: Formula (5) este utilă în cazul în care se


calculează dobânda aferentă mai multor operaţiuni, cu acelaşi
procent p.
Deci: dacă se efectuează operaţiunile ( S k , t k ) , k = 1,..., n cu
acelaşi procent p şi dacă însumarea dobânzilor are sene, atunci
dobânda totală este:
n
1 n
D[( S k , t k ), p ] = å D ( S k , t k , p ) = å N k (6)
k =1 df k =1
În acest caz, este deci necesară calcularea doar a numerelor
N k şi a sumei acestora, sumă care poate fi considerată ca „număr”
al tuturor operaţiunilor.

13.1.1. Elementele dobânzii simple:

1. Suma revenită (sau valoarea finală)

S ( S 0 , t , i ) = S t = S 0 + D ( S 0 , t , i ) = S 0 + S 0 ⋅ i ⋅ t = S 0 (1 + it )
Deci formula S t = S 0 (1 + it ) , reprezintă suma revenită şi se
aplică atunci când procentul p este constant pe întreaga perioadă.
În cazul în care în timpul t procentul variază în diferite
fracţiuni ale lui t :
m
p
t = å θ k , θ k → p k Þ i k = k , i k = dobânda unitară
k =1 100
Atunci: S t = S 0 æç1 + å ikθ k ö÷
m
(8)
è k =1 ø

2. Suma iniţială S 0 este dată, în cele două situaţii de relaţia


S St
S0 = t (9) , respectiv (9’) S = .
1 + it 0 n
1 + å ikθ k
k =1

(1 + it ) = factor de fructificare
1
= factor de actualizare
1 + it

13.1.2. Operaţiuni echivalente în regim de dobândă simplă

Fie S1 , S 2 ,..., S n mai multe sume plasate pe duratele


t1 , t 2 ,..., t n , cu acelaşi procent p.
Ne propunem să înlocuim sumele S i şi duratele t i
( i = 1,..., n ) printr-o sumă unică S şi o perioadă unică t astfel încât
dobânda totală adusă de sumele S i în perioadele t i să fie egală cu
dobânda adusă de suma S în perioada t .
Vom spune că cele două operaţiuni financiare sunt
echivalente în regim de dobândă simplă.
DS
Vom folosi notaţia: A ~ B ⇔ D( A) = D( B) .
Cele două operaţiuni se numesc substituibile.
DS S ⋅ p ⋅ t1 S2 ⋅ p ⋅ t2 S ⋅ p ⋅ tn S ⋅ p ⋅ t
Deci A ~ B ⇔ 1 + +...+ n = Þ
100 100 100 100
n
(10) åS t
k =1
k k = S ⋅ t - ecuaţie cu două necunoscute, S şi t.

Cunoscând-o pe una, o determinăm pe cealaltă.


(11) t = 1 å S k t k - durata de timp dată de timp numită
n

S k =1
scadenţă comună.
n

n åS t k k
Dacă S = å S k Þ (12) t = k =1 - numită scadenţa
n

åS
k =1
k
k =1
medie.

13.1.3. Procent mediu de dispunere

Să presupunem că sumele S1 , S 2 ,..., S n sunt plasate pe


duratele de timp t1 , t 2 ,..., t n cu procentele p1 , p 2 ,..., p n .
Ne propunem să determinăm un procent mediu p pentru
care, sumele S1 , S 2 ,..., S n plasate pe aceleaşi durate t1 , t 2 ,..., t n , să
dea aceeaşi dobândă totală.
n
S ⋅ p ⋅t n
S ⋅ p ⋅ tk n
D=å k k k =å k Þ å S k ⋅ pk ⋅ tk =
k =1 100 k =1 100 k =1
n

n åS k ⋅ pk ⋅ t k
= på S k ⋅ t k Þ p = k =1 .
k =1 Sk ⋅ tk
n

åS k ⋅ pk ⋅ t k
Deci: p = k =1 - procentul mediu de depunere.
Sk ⋅ tk

13.2. Dobânda compusă

DEFINIŢIA 1 : Dacă valoarea luată în calcul a sumei


plasate S 0 , se modifică periodic pe durata de timp t, după o anumită
regulă, vom spune că avem un proces de dobândă compusă (sau că
plasarea sumei S 0 s-a efectuat în regim de dobândă compusă)

DEFINIŢIE : Unitatea de timp la care dobânda se modifică


se numeşte unitate etalon (perioadă).

DEFINIŢIA 2 (echivalentă cu definiţia 1): Suma S 0 este


plasată cu dobândă compusă când la sfârşitul primei perioade (a
primei unităţi etalon) dobânda simplă a acestei perioade este
adăugată la suma iniţială a perioadei, pentru a produce la rândul ei
dobândă în perioada următoare, ş.a.m.d.

În operaţiile financiare pe termen lung, unitatea etalon


(perioada) de timp folosită este anul, uneori semestrul sau
trimestrul.

13.2.1. Stabilirea formulei dobânzii compuse

Fie:
 t = timpul de plasament, exprimat într-un număr întreg de
perioade;
 S 0 = suma iniţială;
 p = procentul;
p
 i= = dobânda unitară;
100
 S t = suma finală după un număr întreg de perioade.

Anii Suma Dobânda Suma obţinută la sfârşitul


plasată produsă în perioadei
timpul
perioadei
1 S0 S0 ⋅ i S1 = S 0 ⋅ (1 + i )
2 S1 S1 ⋅ i S 2 = S1 ⋅ (1 + i ) = S 0 ⋅ (1 + i ) 2
… … … …
t=n S t −1 S t −1 ⋅ i S t = S t −1 ⋅ (1 + i ) = S 0 ⋅ (1 + i ) t

Deci: S t = S 0 ⋅ (1 + i ) t (1)
Notăm : 1 + i = u şi obţinem S t = S 0 ⋅ u t (2)
u se numeşte factorul de fructificare. El se găseşte
calculat în tabele pentru anumite procente şi pentru perioada de
timp de 1 an.

OBSERVAŢIE : Formula (1) este valabilă şi în cazul când


perioada de timp t nu este egală cu un an, cu condiţia ca procentul
folosit să corespundă perioadei respective.

Cazul când timpul nu este un număr întreg de perioade


I. Soluţia raţională

Se foloseşte formula S t = S 0 ⋅ (1 + i ) t pentru partea întreagă


a timpului şi dobânda simplă pentru partea fracţionară rămasă.
1 n h/k
| | | | |

t
h
t =n+
k
După n ani, suma finală este S n = S 0 ⋅ (1 + i ) n . Calculăm
dobânda simplă produsă pe seama S n în timpul fracţiunii h a
k
anului, cu dobânda unitară i . Obţinem:
h h h æ hö
S n ⋅ i ⋅ = S 0 ⋅ (1 + i) n ⋅ i ⋅ Þ St = S n + S n ⋅ i ⋅ = S n ç1 + ÷
k k k è kø
Deci : S t = S 0 ⋅ (1 + i) n ⋅ æç1 + i ⋅ h ö÷ (3)
è kø

II. Soluţia comercială

DEFINIŢIE : Două procente corespunzătoare la perioade de


fructificare diferite sunt echivalente când pentru aceeaşi durată de
plasament ele conduc la aceeaşi valoare finală.

§ 1 leu plasat cu dobânda unitară anuală „i” devine la


sfârşitul primului an , 1+ i.
§ 1 leu plasat cu dobândă unitară semestrială i 2 , devine la
sfârşitul anului 1 + i = (1 + i 2 ) 2 .
§ 1 leu plasat cu dobânda unitară trimestrială i 4 ,
echivalentă cu dobânda unitară anuală i , devine la sfârşitul
anului 1 + i = (1 + i 4 ) 4 .

În general :
1 leu plasat cu dobânda unitară i k , corespunzătoare
fracţiunii 1 a anului, este: 1 + i = (1 + ik ) k Þ 1 + ik = (1 + i)1/ k (4)
k
Prin urmare, în cazul când t nu este un număr întreg de
perioade æç t = n + h ö÷ , suma S 0 devine: S n = S 0 ⋅ (1 + i ) n pentru cele
è kø
n perioade întregi.
Pentru o fracţiune k a anului, 1 leu devine (1 + ik ) , iar
pentru h fracţiuni de acelaşi fel, devine (1 + ik ) h . Suma S n în
perioada h devine: S n ⋅ (1 + ik ) h = S 0 ⋅ (1 + i) n ⋅ (1 + ik ) h .
k
Dar (1 + i k ) h = [(1 + i )1 / k ] h = (1 + i ) h / k .
h
n+
Deci: S t ⋅ (1 + i) n ⋅ (1 + i) h / k = S 0 ⋅ (1 + i) k = S 0 (1 + i) t .
Astfel, formula anterioară (1) este adevărată şi pentru t fracţionar.

13.2.2. Procent normal şi procent real (efectiv)

EXEMPLU : Se depune suma de 100 lei cu 20% şi calculul


dobânzii se face de două ori pe an.
În primele 6 luni (primul semestru) suma de 100 lei aduce o
dobândă de 10 lei, deci ea devine 110 lei la sfârşitul primului
semestru.
În următorul semestru dobânda va fi de 10 lei pentru 100 lei
10
şi 10 ⋅ = 1 leu pentru cei 10 lei. Deci, în total, pe an, dobânda va
100
fi 21 lei.

20% se numeşte procentul nominal.


21% se numeşte procentul real (efectiv).

Deci, dacă facem calculul dobânzii pe fracţiuni de an,


dobânda adusă la sfârşitul anului diferă de cea calculată cu
procentul anual stabilit.
Dacă anul a fost împărţit în k părţi egale şi i k reprezintă
dobânda unitară efectivă corespunzătoare perioadei 1 , iar j k este
k
dobânda unitară nominală corespunzătoare perioadei 1 , vom
k
1
obţine: j k = k ⋅ i k Þ ik = ⋅ j k (5)
k
Înlocuind în (4), vom avea:
k k
æ jk ö æ jk ö
1 + i = (1 + ik ) = ç1 + ÷ Þ i = ç1 + ÷ − 1 (6)
k

è k ø è k ø
1 1

1 + ik = (1 + i ) k Þ i k = (1 + i ) k − 1
1
Sau din relaţia (5): j k = k ⋅ i k = k [(1 + i ) k − 1] (7)

Relaţia (6) reprezintă legătura între dobânda nominală j k şi


cea efectivă i k , oricare ar fi k ≥ 2 .

13.3. Dobânda unitară instantanee

Fie i = dobânda unitară anuală efectivă.


k = numărul de părţi în care a fost împărţit anul

OBSERVAŢIE: Pentru k → ∞ vom stabili o limită pentru


dobânda unitară nominală, limită numită dobânda unitară
instantanee (dobânda se calculează astfel în mod continuu).
Din relaţia (6) obţinem: lim j k = lim k[(1 + i )1 / k − 1] =
k →∞ k →∞
1
1 1
− (1 + i ) ln(1 + i )
k
(1 + i ) − 1
k
k2
= lim = lim = ln(1 + i ) = δ .
k →∞ 1 k →∞ 1
− 2
k k

Deci (8) δ = ln(1 + i ) este dobânda unitară instantanee.


δ δ2 δn
δ = ln(1 + i ) Þ 1 + i = e δ = 1 + + + ... + + ... Þ
1! 2! n!
δ2 δn
Þi =δ + + ... + + ... Þ i > δ , adică dobânda unitară efectivă
2! n!
este mai mare decât dobânda instantanee.

OBSERVAŢIE: Pentru determinarea dobânzii unitare anuale


nominale j k atunci când se cunoaşte dobânda unitară efectivă i , s-
au întocmit tabele.
13.4. Echivalenţa în regim de dobândă compusă

DEFINIŢIE: Două sume sunt echivalente în regim de


dobândă compusă, la un moment dat, dacă ele au aceeaşi valoare
actuală, actualizările făcându-se cu acelaşi procent.

Fie două sume de valori finale S t1 şi S t 2 . Fie i = dobânda


unitară. Atunci valorile la momentul iniţial sunt:
S 0(1) = S t1 (1 + i) −t1 şi S 0( 2 ) = S t2 (1 + i ) − t2 .
Echivalenţa la momentul iniţial este dată de relaţia:
S t1 (1 + i ) −t1 = S t2 (1 + i ) −t2 .

În general:
Fie un grup de n valori finale : S t1 , S t 2 ,..., S tn plătibile în
t1 , t 2 ,..., t n perioade.
Fie un al doilea grup de m sume de valori finale:
Sθ1 , Sθ 2 ,..., Sθ m , plătibile în θ 1 ,θ 2 ,...,θ m .

DEFINIŢIE: Două grupe de sume sunt echivalente în


regim de dobândă compusă, la un moment dat, dacă suma
valorilor actuale ale primului grup de sume este egală cu suma
valorilor actuale ale celui de-al doilea grup de sume.

Prin urmare, echivalenţa corespunzătoare unui aceluiaşi


procent p , la momentul iniţial, este dată de relaţia:
St1 (1 + i) −t1 + St2 (1 + i) −t2 + ... + Stn (1 + i) −tn = Sθ1 (1 + i) −θ1 +
+ Sθ 2 (1 + i ) −θ 2 + ... + Sθ m (1 + i) −θ m .

Vom putea da următoarea definiţie echivalentă:

DEFINIŢIE: Două operaţii financiare A şi B sunt


DC
echivalente în regim de dobândă compusă A ~ B dacă ele au
aceleaşi valori actuale.

n m
(1) å S tk (1 + i) −tk = å Sθ k (1 + i) −θ k
k =1 k =1
În cazul mai general când procentul p (deci dobânda unitară)
diferă de la o sumă la alta, atunci:
n m
(2) åS
k =1
tk (1 + ik ) −t k = å Sθ h (1 + i h ) −θ h
h =1

Se cere:
a) Înlocuirea sumelor S t1 , S t 2 ,..., S tn printr-o sumă unică S
(înlocuirea făcându-se prin echivalenţă) :
n n

åS
k =1
tk (1 + i k ) −tk = S å (1 + i k ) −tk Þ
k =1
n

åS tk (1 + ik ) −tk
Þ (3) S= k =1
n

å (1 + i
k =1
k ) −tk

b) Înlocuirea numai a scadenţelor t1 , t 2 ,..., t n printr-o


scadenţă comună „t”:
n n
(4) åS
k =1
tk (1 + i k ) −tk = å S tk (1 + i k ) −t
k =1

c) Înlocuirea numai a dobânzilor unitare i k (deci a


procentelor p k ) printr-o dobândă unitară unică i (deci
printr-un procent unic p)
n n
(5) åS
k =1
tk (1 + ik ) −tk = å S tk (1 + i ) −t k
k =1

d) Sumele S t1 , S t 2 ,..., S tn plătibile în perioadele t1 , t 2 ,..., t n le


înlocuim printr-o sumă unică S , plătibilă la scadenţa t,
cu procentul p (sau dobânda unitară i ).
n
S (1 + i ) −t = å S tk (1 + i ) −tk sau
k =1
n
(6) S = (1 + i ) t å S t k (1 + i ) −t k , când cunoaştem i şi t .
k =1
Când cunoaştem S şi i , dacă logaritmăm în relaţia (6),
obţinem:
n
lg S − lg å S tk (1 + i ) −tk
(7) t= k =1

lg(1 + i )
13.5. Plasament cu dobândă simplă sau compusă

Suma S 0 , plasată pe durata t , cu dobânda unitară i, va aduce


dobânda:
Ds = S 0 ⋅ i ⋅ t → în regim de dobândă simplă.
Dc = S 0 [(1 + i ) t − 1] → în regim de dobândă compusă.

PROPOZIŢIE:
1) Ds > Dc , pentru t < 1 an
2) Ds < Dc , pentru t > 1 an
3) Ds = Dc , pentru t = 1 an

DEMONSTRAŢIE:
Ds − Dc = S 0 ⋅ i ⋅ t − S 0 [(1 + i ) t − 1] = S 0 [i ⋅ t − (1 + i) t + 1]
Introducem funcţia: f : [0, ∞) → R , f (t) = i ⋅ t +1− (1+ i)t .
t t (t − 1) 2 t (t − 1) 2
(1 + i) t = 1 + ⋅ i + ⋅ i + ... = 1 + i ⋅ t + ⋅ i + ...
1! 2! 2!
ì> 0, t > 1
t (t − 1) 2 ï
(1 + i) − (1 + i ⋅ t ) =
t
⋅ i + ... = í< 0, t < 1
2! ï= 0, t = 1
î

Dc (t ) Ds (t )

1 t

DEFINIŢIE: Operaţiile de plasare a sumei S 0 pe durata t în


regim de dobândă simplă cu dobânda unitară i sau în regim de
dobândă compusă cu dobânda unitară j, sunt echivalente, când
determină aceeaşi dobândă.

Deci: S 0 ⋅ i ⋅ t = S 0 [(1 + j ) t − 1] Þ i ⋅ t = (1 + j ) t − 1
t (t − 1) 2 (t − 1) 2
i ⋅t = t ⋅ j + j + ... Þ i = j + j + ... Þ
2! 2
1
ìi < j , t < 1 1
Þí şi i = [(1 + j) −1]
t
sau j = (1 + it ) t
−1
îi ≥ j t ≥ 1 t

Prin urmare, pentru a realiza aceeaşi valoare finală (sau


aceeaşi dobândă) prin plasarea sumei S 0 pe durata t > 1 , procentul
anual în regim de dobândă simplă este mai mare decât procentul
anual în regim de dobândă compusă.
CAPITOLUL 14

PLĂŢI EŞALONATE
(RENTE)

DEFINIŢIE: Se numesc plăţi eşalonate (rente), sumele de


bani plătite la intervale de timp egale.

DEFINIŢIE: Se numeşte perioadă intervalul de timp care


separă plata a două sume.

DEFINIŢIE: Dacă perioada este anul, plăţile eşalonate se


numesc anuităţi. (semestrul – semestrialităţi, trimestrul –
trimestrialităţi, luna - mensualităţi).

Plăţile eşalonate pot fi:


1) plăţi eşalonate de plasament (sau de fructificare), făcute
pentru constituirea unei sume de bani.
2) plăţi eşalonate de amortizare (sau de rambursare), în
vederea rambursării unei datorii.

Plăţile eşalonate pot fi:


 anticipate (la începutul perioadei)
 posticipate (la sfârşitul perioadei)

Plăţile eşalonate pot fi:


 temporare (numărul de plăţi este finit şi fixat prin
contract)
 perpetue (numărul plăţilor este nelimitat)
 viagere (numărul plăţilor depinde de viaţa unei
persoane)

Plăţile eşalonate pot fi:


 constante (sumele depuse sunt constante)
 variabile (sumele depuse sunt variabile)

14.1. Anuităţi constante posticipate

a) Valoarea finală a unui şir de anuităţi constante,


imediate, temporare Sn
Notăm:
T = valoarea anuităţii constante;
n = numărul de ani;
i = dobânda unitară anuală;
S n = valoarea sau suma finală a şirului de anuităţi în
momentul n (momentul plăţii ultimei anuităţi)

T T T T
| | | ………… | |
0 1 2 n-1 n

T (i + 1)
n −1
T (i + 1) T
n−2
T (i + 1)

u = 1 + i - factor de fructificare

Sn = T (1 + i) n−1 + T (1 + i) n− 2 + ... + T (1 + i ) + T =
= T ⋅ u n−1 + T ⋅ u n − 2 + ... + T ⋅ u + T =
un −1
= T (1 + u + ... + u n − 2 + u n −1 ) = T ⋅
u −1
Deci: Sn = T ⋅ u − 1 .
n

OBSERVAŢIE : Pentru T = 1 (o unitate monetară) suma


finală a unui şir de n anuităţi constante posticipate este:
un −1
sn = şi deci Sn = T ⋅ s n
i

b) Valoarea finală (suma finală) a unui şir de anuităţi


posticipate, constante, temporare, amânate. r Sn

Anuităţile sunt amânate r ani, r < n .


Prima plată se face posticipat, după r ani (prima plată
făcându-se deci la momentul r+1) timp de (n-r) ani.
T T T T
| | | …….. | | | …… | |
0 1 2 …….. r r+1 r+2 ….. n-1 n

r Sn = T ⋅ u n − r −1 + T ⋅ u n − r − 2 + ... + T ⋅ u + T =
u n−r − 1
= T (1 + u + ... + u n − r − 2 + u n − r −1 ) = T ⋅
u −1

n-r termeni

n−r
−1
r Sn = T ⋅ u sau r Sn = Sn-r
i

OBSERVAŢIE : Valoarea finală a şirului de anuităţi


posticipate egale cu T calculate pe n ani, dar amânate r ani, este
egală cu valoarea finală a acestor plăţi, imediate, dar calculate
numai pe (n-r) ani.

EXEMPLU: Să se calculeze valoarea finală a unui şir de 10


anuităţi egale cu 1000 u.m. , plătibile la sfârşitul fiecărui an (dar
amânate 5 ani) cu procentul p = 5% .
Soluţie : i = 0,05 , r = 5 , n − r = 10 Þ n = 15

5 S15 = 1000⋅ 1.05 − 1 = 1000⋅12,577892= 12577,892 u.m.


10

0,05

c) Valoarea actuală a unui şir de anuităţi constante,


posticipate, temporare, imediate An

DEFINIŢIE: Se numeşte valoarea actuală a unui şir de


anuităţi (constante, posticipate, temporare, immediate) An suma
necesară şi suficientă în momentul iniţial pentru a se putea plăti
scadenţele fixate la scadenţele 1, 2, …, n (constante în valoare de T
unităţi monetare).

T T T T
| | | ………… | |
0 1 2 n-1 n
n −1
An T ⋅u T ⋅u2 T ⋅u T ⋅un
OBSERVAŢIE : An este egală cu suma valorilor actuale a
fiecărei anuităţi.

An = T ⋅ u + T ⋅ u2 + ...+ T ⋅ un−1 + T ⋅ un = T ⋅ u ⋅ (1+ u + ...+ un−1 )


un −1
An = T ⋅ u ⋅
u −1

OBSERVAŢIE: Pentru T = 1 (o unitate monetară)


u −1
n
notăm: a n = u ⋅ şi deci An = T ⋅ a n .
u −1

EXEMPLU: Ce sumă unică depusă imediat poate să


înlocuiască plata a 12 anuităţi constante ( T = 1250 u.m.) posticipate,
cu procentul de 5% ?

An = 1250⋅ (1 + 0,05) ⋅ 1,05 − 1 = 1250⋅1.05 ⋅ 1,80 = 47250


12

0,05 0,05

d) Valoarea actuală a unui şir de anuităţi (constante,


posticipate, perpetue, imediate) A∞

Anuităţile sunt perpetue, deci plata se efectuează nelimitat.


1
Pentru T = 1 , avem a ∞ = şi dacă T > 1 Þ A∞ = T ⋅ a ∞ .
i

e) Valoarea actuală a unui şir de anuităţi (constante,


posticipate, temoprare, amânate) rAn

Plata se face după r ani, posticipat, timp de (n-r) ani.

T T T T
| | | …….. | | | …… | |
0 1 2 …….. r r+1 r+2 ….. n-1 n
rAn

rAn = T ⋅ u r +1 + T ⋅ u r + 2 + ... + T ⋅ u n =
u n−r − 1
= T ⋅ u r +1 (1 + u + ... + u n − r −1 ) = T ⋅ u r +1 ⋅ =
u −1
u n −r − 1 u n−r − 1
= T ⋅ u r +1 ⋅ =T ⋅ ur ⋅ u ⋅ = T ⋅ u r ⋅ an−r
i u −1
Deci: rAn = T ⋅ u r ⋅ a n − r .

EXEMPLU: Care este suma unică pe care urmează să o


plătească o persoană pentru a înlocui plata a 12 anuităţi posticipate
de 3000 u.m. fiecare, amânate 3 ani, cu procentul p = 5% ?
Soluţie: n − r = 12 , r = 3 , n = 15
3A15 = 3000⋅ (1,05)3 ⋅ a12 = 3000⋅ 0,863837⋅ 8,86325= 22969,21 u.m.

14.2. Anuităţi constante anticipate

a) Valoarea finală a unui şir de anuităţi constante,


anticipate, temporare, imediate S n

T T T T
| | | …….. | |
0 1 2 …….. n-1 n

S n este egală cu suma valorilor finale a fiecărei anuităţi, la


momentul n.

S n = T ⋅ u n + T ⋅ u n−1 + ... + T ⋅ u = T ⋅ u ⋅ (1 + u + ... + u n−1 ) =


un −1 u n −1
= T ⋅u ⋅ = T ⋅u ⋅
u −1 i
Deci S n = T ⋅ u ⋅ − 1 .
n
u
i
Pentru T = 1 obţinem valoarea finală a unui şir de anuităţi
anticipate a 1 u.m.; notăm s n .
un −1
sn = u ⋅ şi deci S n = T ⋅ s n .
i

b) Valoarea finală a unui şir de anuităţi anticipate,


constante, temporare, amânate r ⋅ S n
T T T T
| | | …….. | | | …… | |
0 1 2 …….. r r+1 r+2 ….. n-1 n

u n−r − 1
r ⋅ S n = T ⋅ u n − r + T ⋅ u n − r −1 + ... + T ⋅ u = T ⋅ u ⋅
i
u n−r − 1
Deci: r ⋅ S n = T ⋅ u ⋅ adică r ⋅ S n = T ⋅ S n − r .
i

c) Valoarea actuală a unui şir de anuităţi constante,


anticipate, immediate, temporare An

DEFINIŢIE: Se numeşte valoarea actuală a unui şir de


anuităţi anticipate, suma necesară şi suficientă în momentul iniţial
pentru a se putea plăti la fiecare din scadenţele fixate 0, 1, …, (n-1)
suma egală cu T. Notăm cu An această sumă.

T T T T
| | | …….. | |
0 1 2 …….. n-1 n
An = T + T ⋅ u + T ⋅ u + ... + T ⋅ u = T (1 + u + ... + u n −1 ) =
2 n −1

u n −1 un −1
=T ⋅ =T⋅ .
u −1 i

An = (1 + i ) An .
CAPITOLUL 15

RAMBURSAREA ÎMPRUMUTURILOR

DEFINIŢIE: În sens general, se numeşte împrumut, o


operaţiune financiară prin care un partener P1 (individual sau un
grup) plasează o sumă de bani, pe o perioadă de timp dată şi în
anumite condiţii, unui alt partener P2 .

DEFINIŢIE: P1 se numeşte creditor.

DEFINIŢIE: P2 se numeşte debitor.

DEFINIŢIE: Operaţiunea prin care P2 restituie partenerului


P1 suma de care a beneficiat (suma împrumutată) se numeşte
rambursarea (sau amortizarea) împrumutului .

Prin urmare, împrumutul este o operaţiune ce conţine două


părţi distincte şi anume creditarea şi rambursarea.
Fiecare componentă reprezintă o operaţiune de plăţi
eşalonate.
În general cele două operaţiuni nu au loc simultan şi deci
valoarea lor finală nu este aceeaşi. Ele au în comun valoarea
actuală a rambursării, adică valoarea împrumutată.
Împrumutul se constituie prin anuităţi constante formate
din:
 rambursarea unei părţi a datoriei;
 dobânda asupra părţii din datoria rămasă la începutul
perioadei în care se efectuează plata.

Aceste sume rambursate anual şi care au rolul de a amortiza


treptat suma împrumutată, se numesc amortismente.

15.1. Amortizarea unui împrumut prin anuităţi constante


posticipate

Fie V0 suma împrumutată la momentul iniţial.


Fie T1 , T2 ,..., Tn anuităţile succesive, astfel:
 prima anuitate ( T1 ) se plăteşte la un an de la acordarea
împrumuturilor;
 a doua se plăteşte un an mai târziu, ş.a.m.d.

Fie Q1 , Q2 ,..., Qn amortismentele succesive conţinute în


prima, a doua,…, a n-a anuitate.
Fie i dobânda unitară nominală a împrumutului.
Fie n numărul de ani în care se face rambursarea.

Momentul Suma rambursată Suma rămasă


0 V0
1 T1 = Q1 + d1 = Q1 + V0 i V1 = V0 − Q2
2 T2 = Q2 + d 2 = Q2 + V1i V2 = V1 − Q2
… …… ……
p T p = Q p + d p = Q p + V p −1i V p = V p −1 − Q p
… …… ……
n Tn = Qn + d n = Qn + Vn −1i Vn = Vn −1 − Qn = 0

Deoarece Vn = 0 ÞVn−1 = Qn şi deci Tn = Qn +Vn−1i = Qn (1+ i) .

a) Relaţia dintre suma împrumutată şi amortismente

n
V0 = å Qi
i =1

b) Relaţia între anuităţi şi amortismente

Tp+1 −Tp = Qp+1 +iVp −(Qp +iVp−1) = Qp+1+i −i(Vp−1 −Qp) −Qp −iVp−1 =
= Q p +1 − iQ p − Q p = Q p +1 − Q p (1 + i ) .

(1) T p +1 − T p = Q p +1 − Q p (1 + i )

OBSERVAŢIE: Formula (1) este adevărată oricum am


alege anuităţile.
Cazuri particulare:

α ) Anuităţile sunt egale între ele:


T1 = T2 = ... = Tn = T
Atunci din (1), obţinem: Q p +1 − Q p (1 + i ) = 0 , adică :
(2) Q p +1 = Q p (1 + i ) şi se arată uşor prin inducţie că:
(3) Q p +1 = Q1 (1 + i ) p
Prin urmare, în cazul anuităţilor egale când amortismentele
succesive Q1 , Q2 ,..., Q p ,... formează o progresie geometrică
crescătoare cu raţia (1 + i ) .

β ) Amortismentele sunt constante (egale între ele):


V0
Q = Q1 = Q2 = ... = Qn =
n
V0
Atunci din (1), obţinem: T p +1 − T p = −Q1i = − i , deci:
n
V0
(4) T p +1 = T p −
i
n
Prin urmare, în cazul amortismentelor egale, anuităţile
succesive formează o progresie aritmetică de raţie æç − 0 ö
V
i ÷ , deci o
è n ø
progresie aritmetică descrescătoare.

OBSERVAŢIE: În cazul α ) al anuităţilor egale între ele,


amortismentele formează o progresie geometrică de raţie (1 + i ) .
Avem:
n n
V0 = å Qk = å Q1 (1 + i ) k −1
k =1 k =1

Notăm: 1 + i = u Þ V0 = Q1 å u k −1 = Q1 u − 1 Þ
n n

k =1 u −1

(5) V0 = Q1 (1 + ) − 1
n
i
i
Deci: (6) Q1 = V0 i
(1 + i ) n − 1
Relaţiile (5) şi (6) pot fi scrise sub formă echivalente,
notând s n) = (1 + i ) n − 1 .
(7) V0 = Q1 ⋅ s n) ; Q1 = V0 ⋅ 1
s n)
OBSERVAŢIE: Formulele (5) – (7) ne dau relaţiile între
sumele împrumutate şi primul amortisment.

c) Relaţiile dintre anuităţile constante şi suma


împrumutată

Ţinând seama de echivalenţa dintre suma împrumutată V0 şi


anuităţile actualizate pe baza dobânzii unitare nominale i, rezultă:
1 − (1 + i) −n
V0 = T (1 + i) −1 + T (1 + i) −2 +... + T (1 + i) −n = T (1 + i) −1 =
1 − (1 + i) −1
1 − (1 + i ) − n 1 − (1 + i ) − n 1 − (1 + i ) n
= T (1 + i ) −1 = T (1 + i ) −1 =T
1 (1 + i ) − 1 i
1−
1+ i 1+ i
sau:
(8) V0 = T ⋅ a n) Þ T = V0 1
a n)
Relaţia de mai sus evidenţiază legătura dintre anuităţile
posticipate constante şi suma împrumutată.

15.2. Suma rambursată după plata a p anuităţi

p
R p = å Qk .
k =1
În cazul anuităţilor constante:
p p p
(1 + i) p −1 .
Rp = åQk = åQ1 (1 + i) k −1 = Q1 å(1 + i) k −1 = Q1
k =1 k =1 k =1 (1 + i) −1
sau:
(1 + i ) p − 1
(9) R p = Q1 = Q1 ⋅ s p)
i
Relaţia (9) evidenţiază legătura dintre suma rambursată în
primii p ani şi primul amortisment.
Ţinând cont de (7), obţinem:
(10) R p = V0 1
s p)
Această relaţie evidenţiază legătura dintre suma rambursată
în primii p ani şi suma împrumutată.
După plata anuităţii de rangul p, rămâne de plătit suma V p :
1
V p = V0 − R p = V0 − V0 s p) sau
s n)
sn) − s p)
(1+ i)n − (1+ i) p deoarece (1+ i)n −1
Vp = V0 = V0 s ) =
(1+ i)n −1
n
sn) i
Dacă împărţim la (1 + i) atât numărătorul cât şi numitorul,
n

obţinem:
−( n− p )
(11) V p = V0 1 − (1 + i ) − n = V0 ⋅ a n) − p) 1
1 − (1 + i ) a n)

15.3. Legea urmată de diferenţe succesive a dobânzilor:


d1 − d 2 , d 2 − d 3 ,... în cazul anuităţilor constante.

Tk = Qk + d k , T1 = T2 = ... = Tn = T
Þ T = Qk + d k , k = 1,2,..., n .
d k = T − Qk deci:
d k = d k −1 = T − Qk − (T − Qk +1 ) = Qk +1 − Qk
d k − d k +1 = Q1 (1 + i ) k − Q1 (1 + i ) k −1 = Q1 (1 + i ) k −1 =
= Q1 (1 + i) k −1 (1 + i − 1) = Q1 (1 + i) k −1 i , k = 1,2,...,n .

Prin urmare:
d1 − d 2 = Q1i
d 2 − d 3 = Q1 (1 + i )i
d 3 − d 4 = Q1 (1 + i ) 2 i
………………………

OBSERVAŢIE: Diferenţele ( d k − d k +1 ) , k = 1,2,..., n ,


formează o progresie geometrică de raţie (1 + i ) şi cu primul termen
(Q1 ⋅ i) .

Tabel de amortizare:
Suma
datorată la Dobânda Amortismentul Anuitatea
Anii începutul dn Qn Tn Suma datorată la
anului Vn −1 sfârşitul anului

1 V0 d 1 = V0 i Q1 T1 V1 =V0 −Q1
2 V1 d 2 = V1i Q2 T2 V2 =V1 −Q2
3 V2 d 3 = V2 i Q3 T3 V3 =V2 −Q3

… … … … … …
n-1 Vn −1 dn−1 =Vn−2i Qn −1 Tn −1 Vn−1 =Vn−2 −Qn−1

n Vn dn =Vn−1i Qn Tn Vn =Vn−1 −Qn =0

15.4. Împrumuturi cu anuităţi constante şi dobândă plătită la


începutul anului

La semnarea contractului se plăteşte dobânda pentru primul


an, d1 = V0 i , deci suma reală ridicată este , iar pentru fiecare din
anii următori se plăteşte amortismentul şi împreună cu el dobânda
asupra sumei rămase de plată la începutul anului.

Anul 0 suma efectiv primită V0 (1 − i )


Anul1 T1 = V1i + Q1 V1 = V0 − Q1
Anul 2 T2 = V2 i + Q2 V2 = V1 − Q2
… … …
Anul p Tp = Vpi + Q p V p = V p −1 − Q p
Anul p+1 T p +1 = V p +1i + Q p +1 V p +1 = V p − Q p +1
… … …
Anul n-1 Tn −1 = Vn −1i + Qn −1 Vn −1 = Vn − 2 − Qn −1
Anul n Tn = Vn i + Qn Vn = Vn −1 − Qn = 0

Calculând diferenţa dintre două anuităţi consecutive,


obţinem:
T p +1 − T p = (V p +1 − V p )i + Q p +1 − Q p = (V p − Q p +1 − V p )i +
+ Q p +1 − Q p = Q p +1 (1 − i ) − Q p
Deci:
(1) T p +1 − T p = Q p +1 (1 − i ) − Q p

Dacă presupunem că anuităţile sunt egale (T1 =T2 =...=Tn =T),


vom obţine:
Qp 1
Qp+1 (1 − i) − Qp = 0 Þ Qp+1 = sau, notând =1+ r Þ
1− i 1−i
(2) Q p +1 = (1 + r )Q p

Prin inducţie după p rezultă că în sistemul de împrumut cu


dobânzile plătite la începutul anului şi anuităţi constante,
amortismentele formează o progresie geometrică de raţie (1 + r ) .
(3) Q p +1 = (1 + r ) p Q1

15.5. Aplicaţie

O persoană împrumută o sumă de bani pe care urmează să o


ramburseze în 6 ani prin anuităţi constante posticipate. Suma
primelor două amortismente este 9226630 lei, iar suma dintre al
doilea şi al treilea amortisment este 9559690 lei.
Să se calculeze:
a) procentul p al împrumutului
b) primul amortisment ( Q1 )
c) ultimul amortisment ( Q6 )
d) anuitatea (T)
e) valoarea împrumutului ( V0 )

Soluţie:

a) Q1 + Q2 = Q1 + Q1 (1 + i ) = Q1 (2 + i) = 9226630
Q2 + Q3 = Q1 (1 + i ) + Q2 (1 + i ) = Q1 (1 + i ) + Q1 (1 + i ) 2 =
= Q1 (1 + i + 1 + 2i + i 2 ) = Q1 (2 + 3i + i 2 ) = Q1 (1 + i )( 2 + i )
Q2 + Q3 9559690
= 1+ i = = 1,04 i = 0,04
Q1 + Q2 9226630
i = 0,04 ü
ý p = 4%
p = 100i

b) Q1 (2 + I ) = 9226630
9226630
Q1 = = 4522860
2,04

c) Q 6 = Q1 (1 + i ) 5 = 4522860 (1,04) 5 = 5502750

d) T = Q6 (1 + i ) = 5502750 ⋅ 1,04 = 5722860

e) d 1 = V0 i
d1 = T − Q1 = 5722860 − 4522860 = 1200000
d 1200000
V0 = 1 = = 30000000
i 0,04
CAPITOLUL 16

MATEMATICI ACTUARIALE

16.1. Teoria mortalităţii

Datorită faptului că populaţia unui oraş, judeţ, a unei ţări,


etc., este de volum foarte mare, fenomenele de supravieţuire sau de
deces ale unei persoane oarecare se comportă asemănător schemei
lui Bernoulli (urna cu bila revenită).
Într-adevăr: fie un grup de oameni care au împlinit vârsta e
x ani, grup de volum l x .
În anul care urmează, pentru o persoană oarecare din acest
grup există două posibilităţi:
a) supravieţuire (notăm acest eveniment cu S) cu P( S ) = p x .
b) decesul (notăm acest eveniment cu M) cu P(M) = qx =1− px
Evident, S ∩ M = ∅ , S ∩ M = Ω , P( S ) + P( M ) = 1 (sau
p x + q x = 1 ).

Acest grup poate fi considerat că se comportă după urna lui


Bernoulli, deoarece chiar dacă unii indivizi decedează, alţii din
grupul x − 1 îi iau locul, ei împlinind vârsta de x ani. Datorită
acestor factori (legii numerelor mari) probabilitatea celor două
evenimente S şi M poate fi înlocuită prin frecvenţa relativă f (n) ,
care poate fi determinată statistic.

Matematicile actuariale analizează metodele care pot fi


folosite pentru determinarea factorilor privind supravieţuirea
sau decesul într-o populaţie determinată, ţinând seama de
caracteristicile unei astfel de colectivităţi: volum foarte mare,
oamenii nu pot fi urmăriţi individ cu individ, fenomenul
naşterii, creşterii în vârstă şi decesul au un caracter continuu.

16.2. Funcţiile biometrice

Biometria este ştiinţa care se ocupă cu măsurarea unor


caracteristici cantitative legate de populaţie.
Funcţiile biometrice sunt acele funcţii care urmăresc sub
diferite aspecte fenomenele de supravieţuire sau deces.

Funcţii biometrice discontinue

Fie:
§ l x = funcţia de supravieţuire a unei persoane de x ani
( x = 0,1,...) . Ea se găseşte în tabele.
§ p( x, y) = probabilitatea de supravieţuire (probabilitatea ca o
persoană de x ani să atingă vârsta de y ani).
Dacă: y = x + n Þ p( x, y) = p( x, x + n) = np x
p( x, x + 1) = p x = 1 ⋅ p x
§ q ( x, y ) = probabilitatea de deces a unei persoane de x ani,
înainte de a ajunge la vârsta de y ani.
Dacă: y = x + n Þ q( x, y) = q( x, x + n) = nq x
q( x, x + 1) = q x = 1 ⋅ q x
§ m / q x = probabilitatea de deces a unei persoane de x ani,
după ce au trecut m ani dar înainte de a împlini x + m + 1 ani
§ m / nq x = probabilitatea de deces a unei persoane de x ani
după ce trec m ani, dar înainte de a trece n ani (m < n)

Considerăm evenimentele:
§ S ( x, y ) = supravieţuirea unei persoane de x ani, la vârsta de y
ani.
§ M ( x, y ) = decesul unei persoane de x ani până la vârsta de y
ani.

Avem:
S ( x , y ) ∩ M ( x, y ) = ∅ ü
ý Þ p ( x, y ) + q ( x , y ) = 1
S ( x , y ) ∪ M ( x, y ) = ∅ þ
l x = volumul colectivităţii corespunzătoare vârstei de x ani.
l x +1 = volumul colectivităţii corespunzătoare vârstei de x + 1
ani.
Folosind definiţia clasică a probabilităţii:
px =
l x +1
; q x = l x − l x +1 = d x ; p x + q x = 1 .
lx lx lx
l x+n ü
np x = ï
lx ï
ý Þ np x + nq x = 1
l −l
nq x = x x + n ï
l x ïþ

Fie A evenimentul ca o persoană să decedeze după ce a


împlinit vârsta de x + n ani şi înainte de a împlini x + n + 1 ani.
A = S ( x, x + n) ∩ M ( x + n, x + n + 1)
Deoarece S şi M sunt evenimente independente, avem:
P ( A) = P[ S ( x, x + n)] ⋅ P[ M ( x + n, x + n + 1)]
l l −l
P( A) = nq x = np n q x + n = x + n ⋅ x + n x + n +1
lx l x+n
l −l d
P ( A) = x + n x + n +1 = x + n
lx lx
Notăm: m / nM x = evenimentul ca o persoană în vârstă de x
ani să decedeze între x + m ani şi x + n ani (m < n) .
Avem: m / nMx = S(x, x + m) ∩ M (x + m, x + n) Þ P(m / nMx ) =
= P[S ( x, x + m)] = P[M ( x + m, x + n)] = (mpx )[(n − m)q x +m ] =
l l −l l −l
= x +m ⋅ x +m x+n = x +m x +n .
lx l x+m lx

TEOREMĂ : Funcţia de supravieţuire l x este valoarea


medie a variabilei aleatoare ce reprezintă numărul persoanelor care
ajung să împlinească x ani dintr-o colectivitate de bază de volum l0 .
Demonstraţie :
În variabila aleatoare cu repartiţia binomială l0 = n şi
probabilitatea de supravieţuire până la x este P( A) = p( x) , iar
probabilitatea de deces până la x ani este P( A ) = q( x) = 1 − p( x) .
Valoarea medie a variabilei aleatoare ce reprezintă
evenimentul A de supravieţuire:
Z = M (Z ) = nP( A) = l 0 p ( x)
Notând Z = l x Þ l x = l 0 p( x) Þ p( x) = l x deci:
l0
l
l x = l0 p ( x) şi p ( x) = x .
l0
Notăm:
Ax = evenimentul ca o persoană din populaţia iniţială să
atingă vârsta de x ani.
Ay = evenimentul ca o persoană din populaţia iniţială să
atingă vârsta de y ani (cu x < y )
S ( x, y ) = evenimentul ca o persoană în vârstă de x ani să
supravieţuiască la y ani.
Avem:
S ( x, y ) = ( Ay / Ax ) → realizarea lui Ay când Ax a avut loc.
P[ S ( x, y )] = P[ Ay / Ax ] = p( x, y ) = PAx ( Ay )
ì A ⊃ Ay
Dar ïí x şi deci:
ïî Ax ∩ Ay = Ay
l
P( Ay ∩ Ax ) P( Ay ) p ( y) l 0 l y
p( x, y) = PAx ( Ay ) = = = = =
P( Ax ) P( Ax ) p( x) l x l x
l0
Notând y = x + n Þ p( x, x + n) = l x+ n = np x
lx
Deci: p( x, y ) = l x ; p( x, x + m) = np x .
ly

16.3. Viaţa probabilă

Pentru o persoană în vârstă de x ani se defineşte viaţa


probabilă acea vârstă υ = x + n ani pentru care probabilitatea de
supravieţuire este egală cu probabilitatea de deces.
1 l x + n lυ 1 1
np x = ; = = ; lυ = l x
2 lx lx 2 2

Deci lυ = 1 l x determină viaţa probabilă pentru o persoană


2
de x ani.
Concluzii: funcţiile biometrice discontinue studiate sunt
legate de perioada de 1 an. Ele se găsesc tabelate din an în an.
Funcţia l x este descrescătoare, iar q x = l x − l x+1 .
lx
Graficul funcţiei l x .
l0

1 2 3 x −1 x x +1

S-ar putea să vă placă și