Documente Academic
Documente Profesional
Documente Cultură
Aceste metode au un specific aparte, iar re zultatele obtinute în urma aplicarii lor trebuie
acceptate întotdeauna cu asumarea unui anumit risc. Fundamentarea acestor metode se
poate face în cadrul teoriei probabilitatilor, veche de circa patru secole. Aceasta nu
înseamna deloc absolutizarea acestei teorii, iar în ultimele decade au aparut multe alte
teorii având ca scop tratarea incertitudinii. Totusi, cunoasterea teoriei probabilitatilor
ramâne necesara pentru întelegerea „altfel” a multor fapte pe care le întâlnim.
81
3.1. Experimente si evenimente
În fizica clasica întâlnim multe legi ce au caracter determinist, de exemplu legea caderii
corpurilor. Aceasta lege ne permite sa „prezicem” cu precizie traiectoria unei ghiulele sau
chiar a unei rachete. În cazu l în care repetam „experimentul”, vom obtine de fiecare data
acelasi rezultat.
Din contra, în termodinamica cele mai multe legi nu au caracter determinist. Repetând o
experiment, am putea obtine de fiecare data un alt rezultat. Fenomenele si procesele
termodinamice sunt aleatoare: nu se poate prezice rezultatul unui asemenea fenomen sau
proces, însa se poate prezice o distributie a rezultatelor.
Prin experiment vom întelege un process repetabil, care are un rezultat fie identificabil,
fie masurabil. Exemple tipice sunt urmatoarele:
• Masurarea diametrului unei celule (în microni), sau a înaltimii unei persoane (în
centimetri), sau a tensiunii arteriale sistolice; rezultatele sunt, evident, masurabile;
În multe cazuri – si în biologie cel mai frecvent – rezultatul unui experiment nu este
unic si nu poate fi prezis cu precizie; se spune ca avem de- a face cu un experiment aleator.
Aceasta înseamna ca, daca repetam de mai multe ori un experiment aleator – admitând ca o
putem face – de fiecare data am putea obtine un alt rezultat.
82
Evenimentele elementare sunt rezultatele posibile ale unui experiment aleator. Iar prin
eveniment vom întelege o colectie de evenimente elementare.
Exemple evidente sunt legate de aruncarea unui zar: multi oameni obisnuiti considera ca
aparitia fetei este un „eveniment”. Conform definitiei de mai sus, aceasta – la fel ca si
aparitia lui sau ! În urma unui asemenea experiment pot aparea multe evenimente
83
(Atunci când aruncam un zar, evenimentul sigur consta în aparitia unei fete, iar
evenimentul imposibil consta în faptul ca nu apare nicio fata.)
Avem acum doua evenimente „veritabile”, E si F (si automat înca doua, complementarele
lor, E si F ). Însa logica ne spune ca mai apare un eveniment, anume: rezultatul masurarii
diametrului cade între c si b (vezi figura urmatoare).
De exemplu, daca vom arunca un zar si daca E înseamna aparitia unei fete cu „mai putin
de trei puncte”, iar F înseamna aparitia unei fete „pare”, atunci E ∩ F înseamna exact
imposibil, adica.
E∩ F =∅.
E∩ F =∅,
84
Din punct de vedere logic, odata date doua evenimente E si F, am putea lua în
considerare, pe lânga conjunctia E ∩ F , si disjunctia notata E ∪ F . În exemplul de mai sus
al „masurarii celulelor”, acest eveniment ar putea fi interpretat astfel: rezultatul masurarii
diametrului unei celule este între a si d (vezi figura de mai sus).
Atentie, am putea întâlni si alte situatii, cum este aceea ilustrata în figura urmatoare: aici
E ∪ F înseamna ca rezultatul masurarii diametrului este fie între a si b, fie între c si d.
Cele trei operatii cu evenimente, prezentate succint în cele de mai sus (anume
complementul, conjunctia si disjunctia) ne permit sa construim un „calcul cu evenimente”.
Nu este cazul sa insistam asupra acestuia, deoarece este analog calculului cu multimi (ceea
ce este sugerat si de notatiile folosite), iar majoritatea regulilor sunt evidente.
Cea mai interesanta situatie este cea a unei familii de evenimente care este simultan
mutual exclusiva si exhaustiva. În aceasta situatie se spune ca familia este completa.
85
Ca exemplu extrem de simplu, sa consideram un zar ce va fi aruncat pe masa. Sa notam
Un alt exemplu extrem de simplu de familie completa de evenimente este dat de familia
D1 , D2 , D3 , unde
86
3.2. Probabilitati
Limba engleza prezinta o mai mare flexibilitate în descrierea diverselor situatii. Astfel,
se face deosebirea între probability of an event si likelihood of a hypothesis. Exista de
asemenea cuvintele odds si chances .
O fundamentare precisa se poate face doar în cadrul unei teorii bine fundamentate.
Cum putem estima pro babilitatea unui eveniment E ? Dispunem de trei metode: cea
practica, cea logica si cea computationala.
87
numãrul aparitiilo r evenimentu lui
f =
numãrul total de încercãri
Astfel, daca vom arunca o moneda de 100 de ori, iar în acestea stema apare de 48 de ori,
vom putea estima probabilitatea evenimentului ce consta în aparitia stemei întro aruncare
efectua alte 900 de aruncari (în total 1000 de aruncari) si vom constata ca stema a aparut în
alte 510 cazuri (în total în 558 cazuri), atunci vom putea estima probabilitatea prin numarul
558
= 55.8%.
1000
(Dar cum stim oare ca zarul este „perfect”? Ce-ar fi daca simetria geometrica ar fi usor
modificata sau daca zarul n- ar fi omogen?)
1
Metoda logica ne indica valoarea pentru probabilitatea aparitiei stemei la aruncarea
2
unei monede. (Aceasta, atentie, în lipsa unor informatii despre „falsificarea” monedei!)
88
O prima si imediata relatie este asa-numita relatie a complementului: daca E este un
eveniment caruia îi „cunoastem” probabilitatea, atunci „cunoastem” si probab ilitatea
complementului sau, din:
P ( E ) = 1 − P( E ) .
Relatia de adunare este usor de exprimat: daca E si F sunt doua evenimente arbitrare,
atunci
P ( E ∪ F ) = P ( E ) + P ( F ) − P( E ∩ F ) .
P ( E ∪ F ) = P ( E ) + P( F )
Relatia de adunare este usor de explicat. Dar pentru aceasta vom interpreta pe P ( E ) ca
aria partii E, acceptând ca universul U are aria egala cu unu (vezi figura urmatoare).
Acum, daca adunam ariile lui E si F vom obtine aria lui E ∪ F , dar vom observa ca aria
„intersectiei” E ∩ F a fost luata în considerare de doua ori!
Probabilitatea P(E) nu este singurul numar care exprima „sortii de izbânda”. Unii
folosesc în mod frecvent sansa lui E, notata cu O(E) – notatia provine de la cuvântul
englezesc odds. Acest numar poate fi exprimat ca un raport între probabilitatea
evenimentului E si probabilitatea complementarului sau, adica astfel:
89
P( E )
O(E) =
1 − P( E )
De exemplu, sansa ca sa se obtina stema la aruncarea unei monede este exact 1; sansa ca
sa se obtina fata la aruncarea unui zar este de 20%. Masura sansa este centrata pe
O(E )
P(E) =
1 + O( E )
asa încât sansa si probabilitatea sunt echivalente, în sensul ca oricare dintre ele se poate
calcula imediat cunoscând pe cealalta.
90
3.3. Evenimente conditionate si probabilitatile lor
Notiunea de „eveniment”, asa cum a fost ea folosita anterior, are sens doar „în viitor”
(sau „în necunoscut ”). Odata ce evenimentul „a aparut” (mai precis „am aflat ca a aparut”),
el se transforma în „fapt care a avut loc” iar probabilitatea sa îsi pierde sensul.
Aici evenimentul E este „decesul în urmatorii 10 ani, începând din acest moment”, iar
evenimentul A este „un barbat va ajunge la vârsta de 40 de ani”.
Sa consideram un exemplu poate ceva mai relevant din punct de vedere medical. Sa
admitem ca avem de- a face cu pacienti care pot suferi sau nu de maladia D, si sa luam în
considerare un semn-test S, care ar putea sa dea rezultat pozitiv sau negativ. Câteodata
vom emite afirmatia:
91
E | A este reprezentata de intersectia celor doua parti, dar daca dorim sa-i evaluam
probabilitatea prin arie, atunci va trebui sa ne raportam la noul univers A în loc de U (iar
aria lui A va deveni 1 în aceasta noua situatie). Prin urmare,
P ( E ∩ A)
P ( E | A) =
P( A)
P ( E | F ) = P ( E ) si P ( F | E ) = P ( F ) .
De exemplu, daca avem doua monede si le aruncam separat, atunci aparitia stemei la
aruncarea primei si aparitia stemei la aruncarea celei de-a doua sunt evenimente
independente.
P ( E ∩ F ) = P (E ) × P ( F ) .
92
3.4. Teorema lui Bayes
priori P( D1 ), P( D2 ), ..., P( Dn ) sunt cunoscute, iar S este un alt eveniment pentru care
toate probabilitatile conditionate
P ( S | D1 ), P ( S | D2 ),..., P ( S | Dn )
P (Di ) × P ( S | Di )
P ( Di | S ) = .
P( D1 ) × P ( S | D1 ) + P ( D2 ) × P (S | D2 ) + ... + P (Dn ) × P (S | Dn )
Teorema lui Bayes este un instrument ce poate fi folosit pentru a re- evalua
probabilitatile diferitelor ipoteze diagnostic posibile.
Notatiile D1 , D2 ,..., Dn de mai sus se pot referi la aceste ipoteze diagnostic posibile.
Probabilitatile a priori P( Di ) pot fi estimate prin diverse metode, de exemplu prin folosirea
datelor statistice sau de recensamânt la nivel national. Evenimentul S poate fi un semn sau
un simptom. În contextul prezentei acestui semn/simptom, probabilitatile ipotezelor
diagnostic trebuie sa fie re-evaluate; teorema lui Bayes de mai sus ne doteaza cu o formula
prin care putem calcula aceste probabilitati a posteriori.
Evident, D1, D2 este o familie completa. Din datele de recensamânt la nivel national
stim ca 3% din populatie are tuberculoza. Asadar, putem estima:
P ( D1 ) = 3% = 0 .03 ;
si în consecinta
P ( D2 ) = 1 − 0 .03 = 0.97 .
93
Trebuie sa estimam si probabilitatea conditionata P( S | D1 ) . Din experienta medicala
stim ca 90% dintre pacientii suferinzi de tuberculoza testeaza pozitiv în radiografia
pulmonara. Asadar, P ( S | D1 ) = 0.90. De asemenea, exista sorti foarte mici, sa zicem de
1%, ca o persoana ce nu are tuberculoza sa testeze pozitiv. Asadar, estimam ca
P ( S | D2 ) = 0.01.
(Cu alte cuvinte, din cauza evenimentului S, probabilitatea de a avea tuberculoza creste
de la 3% la 73.6%.)
Sa consideram acum un exemplu ceva mai sofisticat (luat din „Introduction to Clinical
Informatics” de Degoulet si Fieschi, Springer Verlag, 1999):
94
P ( R | D3 ) = 0.05 ,
Ca urmare, avem toate datele necesare pentru a calcula – fo losind formula lui Bayes –
probabilitatile a posteriori:
P( D1 | R) = 0.54 , P( D2 | R ) = 0.17 ,
P ( D3 | R ) = 0.29 .
Totusi, ce putem spune daca pacienta se plânge de dureri în ambele cadrane inferioare?
Am putea da un raspuns „probabilistic” daca am dispune de estimarile necesare din partea
specialistilor.
Exercitiu. Întrun spital mare a fost initiat un test nou pentru diagnoza cancerului, test
care pare promitator. S-a constatat ca 97% dintre pacientii spitalului, sufe rinzi de cancer,
reactioneaza pozitiv la test. Însa reactioneaza pozitiv si 5% dintre cei ce nu au cancer!
Stiind ca doar 2% dintre pacientii spitalului au cancer, care este probabilitatea ca un
pacient ce reactioneaza pozitiv la test sa aiba într-adevar cancer?
95
P (C ) × P (S | C )
P (C | S ) =
P(C ) × P (S | C ) + P (C ) × P ( S | C )
Putem estima, pe baza datelor din spital, probabilitatea P ( S | C ) la valoarea 0.97, iar
probabilitatea P ( S | C ) la valoarea 0.05. Putem considera ca P (C ) = 0.02 si automat
P (C ) = 0.98 .
Daca formula lui Bayes pare complicata, vom putea rationa în felul urmator:
0.02 0.98
0.97 0.05
Dintre acestia, testeaza pozitiv 194, respectiv 490, în total 684 testeaza pozitiv.
Asadar, frecventa celor care au cancer în rândul celor ce reactioneaza pozitiv la test este
194
f = = 28.4%
684
96
3.5. Comparatii si paradoxuri
Sa luam în considerare doua medicamente (fie ele identificate prin MedA, respectiv
MedB) având ca scop cresterea imunitatii organismului. Despre care dintre ele putem
afirma ca este mai bun (decât celalalt)?
Ce poate sa însemne „mai bun decât”? Evident, ne putem imagina diverse criterii de
comparatie. Sa folosim „rata de succes” a fiecarui medicament. Comparându- le dupa ratele
de succes, este evident ca „mai bun” va fi considerat medicamentul al carui rata de succes
este mai mare.
Admitând ca esantionul are n indivizi (nu insistam acum asupra procedurii de selectare a
lor, dar admitem ca ea corespunde regulilor impuse) si ca, dintre acestia, la un numar a s-a
a
constatat o crestere semnificativa a imunitatii, raportul r = conform tabelului urmator:
n
Crestere semnificativa a Stagnare sau Total Rata de
imunitatii descrestere indivizi succes
Numar de a
a n–a n r=
indivizi n
ne poate oferi o estimare a ratei de succes R.
97
Crestere semnificativa a Stagnare sau Total Rata de
imunitatii descrestere indivizi succes
a
MedA a c nA = a + c rA =
a+c
b
MedB b d nB = b + d rB =
b+d
Am putea decide ca MedA este mai bun decât MedB în cazul în care rA > rB .
Compararea directa între rA si rB nu este însa justificata din punct de vedere statistic.
Din acest punct de vedere, pentru comparare va trebui sa utilizam o statistica (formula)
careia sa-i cunoastem distributia valorilor daca nu perfect, macar aproximativ.
este rata de succes pe ansamblu. Despre aceasta statistica se stie ca este aproximata bine cu
o distributie normala standard (în caz ca sunt satisfacute unele conditii referitoare la
numarul de indivizi din esantion/esantioane).
Pe baza valorilor concrete, pe care le obtinem în urma exploatarii datelor provenite din
esantion/esantioane, vom putea evalua „valoarea p” ca masura a riscului pe care ni-l
asumam luând decizia de ordonare.
În figura de mai jos este prezentat un calcul concret, efectuat pe o foaie de calcul Excel,
pentru urmatoarele date initiale:
C.S.I. S.D.
MedA 24 26
MedB 22 28
98
MedA are o rata de succes de 0.48, deci prin comparatie cu rata 0.44 ar putea fi declarat
medicament mai bun decât MedB. Însa valoarea p a acestei afirmatii este de 0.725, mult
prea mare pentru a avea încredere în aceasta ordonare. Ar trebui sa avem încredere mai
degraba în afirmatia ca cele doua medicamente sunt echivalente.
Daca ne-am ghida strict dupa rata de succes, am putea întâlni situatii paradoxale. Ca
exemplu, sa presupunem ca datele din tabelul de mai sus au fost obtinute în urma testelor
efectuate pe barbati si femei. Daca am fi tinut seama de „stratificarea dupa sex”, datele ar fi
fost urmatoarele:
MedA 20 15 35 0.5714
MedB 10 5 15 0.6667
MedB 12 23 35 0.3429
si am fi constatat ca pentru ambele „straturi” MedB ar fi fost declarat „mai bun”, în totala
contradictie cu cele stabilite „pentru asamblu”.
(Iesirea din paradox, prin metodele statisticii, nu prezinta nici un fel de dificultate. Vom
aborda aceste metode întrun curs viitor.)
99
3.6. Variabile aleatoare si distributii
O „variabila aleatoare” sau o „distributie” nu este altceva decât un alt mod de a descrie
rezultatul unui experiment aleator.
o valorile posibile ale variabilei, notate x1, x2 ,..., xn ,... , sunt numerice si discrete.
Diversele variabile aleatoare (ce au aceleasi valori) se deosebesc între ele prin sansele ca
sa ia aceste valori. Putem vorbi despre o distributie (de probabilitate) atunci când
cunoastem nu doar valorile posibile ale unei variabile aleatoare, ci si „probabilitatile”
acestor valori.
100
Asadar, o variabila aleatoare discreta X este descrisa perfect de tabelul:
x1 x2 ... xn ...
p1 p2 ... pn ...
în care pe prima linie sunt însirate valorile posibile ale variabilei. Probabilitatile de pe a
doua linie sunt numere reale care satisfac doua conditii:
p1 + p 2 + ... + p n + ... = 1 .
Numarul pn este interpretat ca „sortii de izbânda” ca, întrun experiment viitor, variabila
X = x n , ceea ce notam:
p n = P ( X = xn ) .
AA Aa aa
9 1
6
16 16 16
9
ar putea descrie genotipul (unei anumite gene, cu alelele A si a). Evident, este
16
probabilitatea ca un individ al populatiei, ales aleatoriu, sa apartina genotipului AA.
0 1 2
9 1
6
16 16 16
101
Rezultatul ce ar putea fi obtinut în urma aruncarii unui zar „perfect echilibrat” (înainte
de a-l afla) este o variabila aleatoare, a carei distributie de probabilitate este reprezentata
1 2 3 4 5 6
evident de tabelul: 1 1 1 (dar, atentie pe prima linie sunt însirate, ca valori
1 1 1
6 6 6 6 6 6
feminin masculin
0 .51 0 .49
(din datele statistice se stie ca, din 100 de nou nascuti, 51 sunt fete), iar în urma
aruncarii unei monede perfect omogene si rotunde (si subtiri) rezultatul ce va fi obtinut
poate fi descris de tabelul
stema banul
0 .5 0.5
Tinând seama de ordonarea naturala a numerelor, pe prima linie a oricarui tabel prin
care descriem o distributie de probabilitate putem lista „ordonat”valorile:
P ( X ≤ x1 ) = P ( X = x1) = p1 ,
P( X ≤ x2 ) = P( X = x1 ∪ X = x2 ) = P( X = x1 ) + P( X = x2 ) = p1 + p2 ,
P ( x1 < X < x3 ) = P( X = x2 ) = p2 ,
P ( x1 < X ≤ x 3 ) = P ( X = x 2 ) ∪ P ( X = x 3 ) = P ( X = x 2 ) + P ( X = x 3 ) = p 2 + p 3
102
etc. În general,
k
P ( X ≤ xk ) = ∑p
i=1
i pentru k = 2, 3, …
k
P ( x j < X ≤ xk ) = ∑p
i = j +1
i
pentru 0 < j ≤ k .
atunci aceasta valoare este cunoscuta ca media variabilei X si este notata cu E (X ) . Este de
fapt „media ponderata” a valorilor posibile x1 , x2 ,..., x n ,... , ponderile fiind exact
Litera E din notatia de mai sus a fost universal adoptata deoarece media teoretica este
numita în limba franceza espérance iar în limba engleza expectation. Întelesurile acestor
cuvinte, anume „cât speram sa fie” (în franceza), respectiv „la ce sa ne asteptam” (în
engleza) reflecta mai bine „continutul” notiunii decât cel de „medie”, care este pur
calculatoriu.
Sa observam ca toate valorile posibile x1 , x 2 ,..., x n ,... apar în formula mediei E (X ) , iar
cele cu probabilitate „mai mare” contribuie „mai mult” la formarea acestei medii. Este
întrutotul posibil ca numarul E ( X ) sa fie diferit de toate valorile posibile ale variabilei X.
1 1 1
E ( X ) = 1 ⋅ + 2 ⋅ + ... + 6 ⋅ = 3.5 ,
6 6 6
103
Sa consideram doua variabile aleatoare, fie acestea X având valorile x1, x2 ,..., xn ,...
respectiv Y, având valorile y1, y 2 ,..., y m ,... . Faptul ca X ia exact valoarea xn este, asa cum
„ X = x n si Y = y m ”
P ( X = xn ∩ Y = ym ) = P ( X = xn ) ⋅ P (Y = ym )
y1 y2 ... yn ...
Y : .
q1 q2 ... qn ...
În aceasta situatie vom putea considera suma X + Y , care are ca valori sumele distincte
x1 + y1, x1 + y2 ,... , cu probabilitatile respective r11, r12 ,... .
104
Prin definitie, numarul r este interpretat ca probabilitate a evenimentului „ X = xi si
ij
Sa luam un exemplu simplu. Anume, sa consideram tabelul urmator, care contine unele
date privind repartizarea cetatenilor dintr-un oras, în functie de doua criterii:
Ce se poate spune despre suma (formala) X + Y ? Valorile distincte pe care le poate lua
sunt în numar de trei, anume 2, 3 and 4. Avem:
21
P ( X + Y = 2) = P ( X = 1 ∩ Y = 1) = P (fumeazä si astm bronsic ) = 1600 ,
105
1151
P ( X + Y = 4) = P ( X = 2 ∩ Y = 2) = P (nu fumeazä si nu astm bronsic ) = ,
1600
419 9 428
P ( X + Y = 3) = + = .
1600 1600 1600
2 3 4
X + Y : 21 1151 .
428
1600 1600 1600
1 2 4
X ⋅ Y : 21 1151 .
428
1600 1600 1600
Patratul X 2 este definit ca produsul X ⋅ X . În caz ca X are doar valori pozitive, tabelul
urmator descrie patratul sau:
mare decât patratul E (X ) 2 . Diferenta între aceste numere este cunoscuta ca varianta
variabilei aleatoare X si este notata Var (X ) . Asadar,
Var( X ) = E ( X 2 ) − E ( X ) 2 .
Var( X ) = E (( X − E ( X )) 2 ) ,
în care intervine abaterea (deviatia) variabilei X fata de media sa. De fapt, formula exprima
faptul ca varianta variabilei X este media patratului devia tiei variabilei aleatoare X de la
media sa E (X ) . Aceasta justifica folosirea variantei ca masura a împrastierii valorilor în
jurul „centrului” E (X ) .
106
E ( X + Y ) = E ( X ) + E (Y ) .
O variabila aleatoare care poate lua o singura valoare nu este altceva decât un numar
obisnuit. Cele mai simple variabile aleatoare „veritabile” sunt cele care pot lua doar doua
valori posibile; dintre acestea, cele mai cunoscute sunt variabilele aleatoare Bernoulli
(care sunt aso ciate experimentelor în care rezultatul poate fi doar „succesul” sau „esecul”).
Orice variabila aleatoare Bernoulli poate lua asadar doar doua valori, care sunt notate
numeric prin:
0 1
.
1 − p p
E ( Be( p )) = p .
Var( Be ( p )) = p (1 − p ) .
() ()
distributie Be 1 ; valorile acestei distributii Be 1 sunt interpretate de exemplu ca numarul
2 2
107
Atunci când raspundem „la întâmplare” (adica „cu ochii închisi”) la o singura întrebare
dintr-un test grila, cu 5 raspunsuri posibile, dintre care doar unul corect, rezultatul obtinut –
la acea întrebare – este exprimat prin distributia Be(0.2 ) ; valorile acesteia sunt interpretate
ca numar de puncte obtinute (0 sau 1) la acea întrebare.
De mentionat ca rezultatele obtinute prin raspunsurile la doua întrebari dintr- un test grila
pot fi considerate a fi independente între ele, ca variabile aleatoare, doar daca în alegerea
raspunsului la a doua nu suntem deloc influentati de raspunsul pe care l- am dat anterior la
cealalta.
Numarul de fete care rezulta în urma unei nasteri simple poate fi exprimat prin
distributia Bernoulli Be(0.51) .
Numarul de fete care rezulta în urma unei nasteri de gemeni nu poate fi însa exprimat
printr-o distributie Bernoulli; este un exemplu de distributie binomiala.
c 0 1 2 3 4 5 si peste
ceea ce înseamna ca, în medie, o familie obisnuita are un singur copil. Evident, va trebui sa
ne asteptam la o înjumatatire a numarului de indivizi în populatie, în urmatorii 20 de ani.
(Atentie, acest rationament simplist, care nu tine seama de o serie de date colaterale sau de
amanunt, ne permite o proiectie rapida pentru viitor, chiar daca discutabila din multe
puncte de vedere.)
108
3.7. Distributii binomiale
Sa consideram patru monede pe care le aruncam simultan. Numarul de steme care apar
deasupra este reprezentat de o variabila aleatoare, care evident are ca valori doar pe 0, 1, 2,
3 sau 4. O trecere în revista a tuturor posibilitatilor identifica probabilitatile
corespunzatoare:
0 1 2 3 4
1 4 .
6 4 1
16 16 16 16 16
X 1 + X 2 + ... + X n ,
care constituie o noua variabila aleatoare (distributie). Aceasta este notata prin b (n , p ) ,
iar valorile ei sunt numerele 0, 1, ... , n. Probabilitatea de a obtine un numar de k „succese”
în cele n încercari consecutive – ceea ce înseamna ca variabila b (n , p ) ia ca valoare pe k –
are expresia urmatoare
P(b(n, p) = k ) = C kn p k (1 − p) n− k .
j
P (b (n , p ) ≤ j ) = ∑ P (b (n , p ) = k ) .
k=0
109
Daca în locul distributiei sunt cunoscute aceste probabilitati cumulate, atunci orice
probabilitate de forma P( b (n, p ) = k ) este obtinuta imediat:
P (b (n , p ) = k ) = P (b (n , p ) ≤ k ) − P( b( n, p ) ≤ k − 1) .
P (i ≤ b (n , p ) ≤ j ) = P (b (n , p ) ≤ j ) − P( b( n, p ) ≤ i − 1) .
E (b (n , p )) = np .
Var ( b (n, p )) = np (1 − p ) .
Exemplu. Un test este alcatuit din 15 întrebari, fiecare având atasate câte cinci
raspunsuri posibile (doar unul corect). Sa evaluam probabilitatea ca o persoana, care
raspunde la întâmplare, sa obtina exact 8 raspunsuri corecte (adica nota de trecere). Sa
calculam apoi media raspunsurilor corecte pe care le obtin persoanele care raspund la
întâmplare.
încercare, este p = 1 = 0 .2 . Daca numarul de raspunsuri corecte este k = 8 , atunci vom sti
5
sa cautam în tabele (ceea ce nu este recomandat) sau sa calculam (si aceasta este
nerecomandat) probabilitatea
P (b (15, 0 . 2) = 8 )
110
Pe de alta parte, media se obtine cu usurinta,
E (b (15, 0 .2)) = 15 ⋅ 0 .2 = 3 .
111
În Excel exista înca o functie legata de distributiile binomiale, anume cea denumita
NEGBINOMDIST. Aceasta functie este folosita pentru obtinerea probabilitatii a exact e
esecuri înainte de a se obtine al k-lea succes (evident, cu conditia ca probabilitatea p a
succesului sa fie aceeasi în toate încercarile).
n = 15 , p = 0. 25 n = 25 , p = 0 .2
Exercitiu. Din practica medicala se stie ca doar 1 din 3 pacienti suferinzi de maladia D
se vor vindeca în urma tratamentului cu medicamentul M. Pentru ca un medicament nou N
sa fie acceptat ca superior lui M, regulile impuse în unele spitale cer ca dintr-un numar de
12 pacienti (suferinzi de maladia D) tratati cu acest medicament, cel putin 7 sa se vindece.
Care este probabilitatea ca, în urma experimentarii pe 12 pacienti, medicamentul nou sa fie
discreditat, chiar daca rata sa de vindecare este de 1 din 2? Dar daca rata de vindecare este
de 3 din 4?
1
Cu rata de vindecare r = = 0.5 , numarul de pacienti vindecati, dintre cei 12 tratati cu
2
medicamentul N, este descris de variabila aleatoare b (12 ,0 .5) . Medicamentul nou va fi
discreditat daca numarul de pacienti vindecati va fi de cel mult 6. Probabilitatea acestui
eveniment se obtine apelând
3
Pentru rata de vindecare r = = 0.75 , probabilitatea ca medicamentul sa fie totusi
4
discreditat este BINOMDIST(12, 0.75, 6, True) = 0.054, o valoare destul de redusa.
112
3.8. Distributii Poisson
1) Numarul de aparitii întrun interval dat este independent de orice se întâmpla în orice
alt interval;
3) Probabilitatea mai multor aparitii întrun interval tinde spre 0 atunci când „lungimea”
intervalului tinde spre 0 (ceea ce se interpreteaza de obicei spunând ca „aparitiile sunt
rare”).
O distributie Poisson rep rezinta numarul de aparitii întrun interval dat, în conditiile în
care sunt satisfacute conditiile unui experiment Poisson. O asemenea distributie depinde de
un singur parametru (real pozitiv) λ si este notata de obicei cu Po (λ) . Variabila aleatoare
corespunzatoare ia ca valori numerele naturale 0, 1, 2, ..., n, ... cu probabilitatile respective
?n
P ( Po (λ) = n ) = ⋅ exp( −n ) .
n!
Exista mai multe tabele care contin valori ale probabilitatilor P ( Po (λ ) = n ) pentru
diferite valori ale parametrului λ (tabele ce pot fi întâlnite în diverse carti). Totusi, în era
calculatoarelor asemenea tabele sunt superflue; de exemplu, în Excel avem la dispozitie
functia POISSON .
113
Exemple. În biologie si în alte stiinte ale vietii se accepta ca incidenta atacurilor
parazitilor asupra unei populatii este descrisa „bine” de o distributie Poisson. Distributii
Poisson sunt folosite în organizarea activitatilor la statiile de servire (nu trebuie sa ne
gândim doar la „pompele de benzina ”, ci si la serviciile de urgenta în spitale) întrucât
descriu bine numarul de sosiri ale clientilor (masini, respectiv pacienti) întrun interval de
timp dat.
Exemplu. Seful unei unitati SMURD stie, din experienta proprie, ca în medie se
primesc lunar 12 apeluri de urgenta ce necesita folosirea elicopterului.
Elicopterul poate efectua cel mult trei misiuni întro zi. Care este probabilitatea ca, întro
zi obisnuita, sa apara mai mult de 3 apeluri de urgenta care sa necesite folosirea
elicopterului?
extrem de scazuta. Ar trebui sa ne asteptam, odata la trei ani, la o sit uatie exceptionala.
114