Documente Academic
Documente Profesional
Documente Cultură
Teoria Probabilitatii
Teoria Probabilitatii
Liliana Popa
ILOR
TEORIA PROBABILITAT
GH. ASACHI,
UNIVERSITATEA TEHNICA
IASI 1999
Cuprins
Introducere
1 C
amp de probabilitate
1.1 Camp finit de evenimente . . . . .
1.2 Camp finit de probabilitate . . . .
1.3 Metode de numarare . . . . . . . .
1.4 Moduri de selectare a elementelor .
1.5 Definitia axiomatica a probabilitatii
1.6 Formule probabilistice . . . . . . .
1.7 Scheme clasice de probabilitate . .
1.8 Camp infinit de probabilitate . . .
1.9 Probleme propuse . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
11
16
17
18
20
26
29
36
.
.
.
.
.
.
.
43
43
44
61
65
68
74
75
.
.
.
.
.
.
.
81
81
88
95
108
117
126
143
4 Probleme la limit
a n teoria probabilit
atilor
155
4.1 Convergenta n probabilitate . . . . . . . . . . . . . . . . . . . . . . . . . . 155
4.2 Legea numerelor mari (forma slaba) . . . . . . . . . . . . . . . . . . . . . . 156
4.3 Aproximari pentru repartitii discrete . . . . . . . . . . . . . . . . . . . . . 161
3
4.4
4.5
. 164
.
.
.
.
177
181
182
184
5 Procese stochastice
187
5.1 Lanturi Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
5.2 Procese Markov continue. Procese Poisson . . . . . . . . . . . . . . . . . . 200
5.3 Procese stochastice stationare . . . . . . . . . . . . . . . . . . . . . . . . . 206
Introducere
Numeroase probleme practice din variate domenii de activitate, ca: ingineria electrica,
radio, transmisia de date, calculatoare, teoria informatiei, fiabilitatea sistemelor si altele,
conduc la studiul unor fenomene si procese aleatoare. Evaluarea sanselor lor de producere
constituie obiectul disciplinei teoria probabilitatilor.
Cursul de Teoria probabilitatilor are atat un caracter informativ, furnizand studentilor notiuni si rezultate fundamentale cu care vor opera n cadrul specialitatilor lor, cat
si formativ, acomodandu-i cu rationamente matematice, dintre care unele vor fi necesare
prelucrarii pe calculator a datelor.
Cursul este alcatuit din cinci capitole.
Capitolul I, intitulat Camp de probabilitate introduce notiunea de camp de probabilitate, cadru n care se defineste axiomatic notiunea de probabilitate. Sunt trecute
n revista formule si scheme clasice de probabilitate. Elementele de teorie sunt nsotite
de exemple, dintre care unele cu referire la situatii tehnice privind controlul de calitate,
transmiterea informatiei etc.
Cuprinde paragrafele: 1.Camp finit de evenimente; 2.Camp finit de probabilitate;
3. Metode de numarare; 4.Moduri de selectare a elementelor; 5.Definitia axiomatica a
probabilitatii; 6.Formule probabilistice; 7.Scheme clasice de probabilitate; 8.Camp infinit
de probabilitate.
Capitolul II, intitulat Variabile aleatoare discretecuprinde paragrafele 1.Definitia
si clasificarea variabilelor aleatoare; 2.Variabile aleatoare discrete simple; 3.Exemple de
variabile aleatoare discrete simple; 4.Variabile aleatoare discrete simple bidimensionale;
5.Variabile aleatoare cu un numar infinit numarabil de valori.
Este scos n evidenta rolul distributiei Poisson, a evenimentelor rare n numeroase
aplicatii tehnice.
Capitolul III, intitulat Variabile aleatoare continue, cuprinde paragrafele: 1.Functia de repartitie a unei variabile aleatoare unidimnesionale; 2.Densitatea de probabilitate.Repartitia normala;3.Functia de repartitie multidimensionala.Transformari; 4.Valori caracteristice ale unei variabile aleatoare. 5.Functia caracteristica a unei variabile
aleatoare; 6.Variabile aleatoare continue clasice si legaturile dintre ele; 7.Fiabilitate.
Este scos n evidenta rolul legii lui Gauss n studiul erorilor accidentale de masurare.
Capitolul IV, intitulat Probleme la limita n teoria probabilitatilor, cuprinde paragrafele: 1.Convergenta n probabilitate a sirurilor de variabile aleatoare; 2.Legea numerelor mari (forma slaba); 3.Aproximari pentru distributii discrete; 4.Convergenta n
repartitie. Teorema limita centrala; 5.Legatura dintre convergenta functiilor de repartitie
Capitolul 1
C
amp de probabilitate
1.1
C
amp finit de evenimente
mp de probabilitate
Ca
lui A si B.
Definitia 1.1.2 Fie A E, A 6= . Evenimentul A se numeste eveniment elementar
dac
a este implicat numai de el nsusi si de evenimentul imposibil. Celelalte evenimente
se numesc evenimente compuse.
a se pot
Definitia 1.1.3 Fie A, B E. Evenimentele A, B se numesc compatibile dac
n
[
i=1
Ai ,
mp de probabilitate
Ca
n
\
Ai
i=1
deoarece A B = A B.
mp de probabilitate
Ca
10
n
[
Aj K.
j=1
n
\
Aj K.
j=1
mp de probabilitate
Ca
11
n
[
Ai = E.
i=1
1.2
C
amp finit de probabilitate
m
n
se numeste frecventa relativa a evenimentului A.
fn =
12
mp de probabilitate
Ca
Observatia 1.2.2 Frecventa relativa fn depinde de n, numarul de repetari ale experimentului. Multe experiente prezinta o stabilitate a frecventelor relative n sensul ca pe
masura ce numarul n ia valori mari, frecventa relativa oscileaza n jurul unei anumite
valori si se apropie din ce n ce mai mult de aceasta valoare. Valoarea poate fi adesea
intuita.
De exemplu, daca ntr-o urna sunt trei bile negre si una alba, la un numar mare de
extractii ale unei bile din urna, cu repunerea bilei extrase napoi, sansele de extragere
ale unei bile negre sunt de trei ori mai mari decat cele ale unei bile albe si deci, pentru
valori mari ale lui n, n cazul celor doua evenimente frecventele relative se vor stabiliza
n jurul valorilor 3/4 si respectiv 1/4. Aceasta stabilitate a frecventelor relative, verificata prin observatii si confirmata n practica, este una din legile cele mai importante ale
experientelor aleatoare. Legea a fost formulata pentru prima data de Bernoulli n teorema
care i poarta numele si este forma slaba a legii numerelor mari (Capitolul 4, Teorema
4.2.2).
Definirea probabilitatii peste un camp finit de evenimente se poate face n mod clasic
si axiomatic.
Definitia clasica a probabilitatii se poate folosi n cazul n care experienta aleatoare
are un numar finit de cazuri posibile si toate egal probabile, adica la un numar mare de
efectuari ale experientei, fiecare caz are aceeasi sansa de a se realiza.
Consideram, de exemplu, experienta care consta n aruncarea unui zar pe o suprafata
neteda. Daca zarul este perfect cubic si omogen, atunci fiecare din fete are aceeasi sansa
de a apare, frecventele relative ale fiecareia dintre ele variaza n jurul lui 1/6. In cazul n
care zarul nu ar fi omogen, atunci una sau mai multe fete ar fi favorizate.
a si evenimentele legate de aceasta astfel nc
at toate eveniDefinitia 1.2.2 Fie o experient
mentele sa fie egal posibile. Fie evenimentul A legat de aceast
a experient
a. Numim probabilitatea evenimentului A num
arul
m
P (A) =
n
dat de raportul dintre numarul m al cazurilor favorabile realiz
arii evenimentului A si
num
arul n al cazurilor egal posibile.
Mentionam ca orice proba care conduce la realizarea unui eveniment A reprezinta un
caz favorabil evenimentului A.
Observatia 1.2.3 Definitia clasica a probabilitatii, formulata pentru prima data de Laplace, este nesatisfacatoare din punct de vedere logic deoarece reduce definitia probabilitatii la problema cazurilor egal posibile care nu a putut fi definita din punct de vedere
matematic, ci numai ilustrata.
In cazul zarului neomogen, definitia clasica a probabilitatii nu poate fi aplicata. Riguros vorbind, zarul neomogen si nesimetric este singurul caz real deoarece construirea
unui zar perfect este imposibila.
Un alt incovenient al definitiei apare n cazul n care numarul cazurilor posibile este
infinit deoarece n aceasta situatie probabilitatea, calculata dupa definitia clasica, este
foarte mica sau egala cu zero.
mp de probabilitate
Ca
13
In sfarsit, definitia clasica a probabilitatii nu poate fi admisa deoarece nu pote fi aplicata n studiul fenomenelor sociale, neputandu-se determina numarul cazurilor posibile.
Observatia 1.2.4 Legatura existenta ntre frecventa relativa unui eveniment si probabilitatea sa este profunda. De fapt atunci cand calculam probabilitatea unui eveniment
ne bazam pe frecventele relative.
Exemplul 1.2.1 Se arunca un zar de doua ori. Multimea rezultatelor posibile ale experientei care consta n perechile de numere ce apar pe zar n cele doua aruncari este E =
{11, 12, . . . , 16, 21, 22, . . . , 26, 31, . . . , 66} , |E| = 62 = 36, unde |E| noteaza numarul de
elemente ale multimii E. Toate rezultatele posibile sunt echiprobabile, deci probabilitatea
unui eveniment A, P (A), este egala cu numarul elementelor din multimea A mpartit la
numarul elementelor din E. Presupunem ca vom pastra fata zarului ce contine un punct
alba, iar celelalte fete le vom colora n negru. Notam cu AN evenimentul ca la prima
aruncare a zarului sa obtinem fata alba, iar la cea de-a doua aruncare o fata neagra a
zarului. Avem AN = {12, 13, 14, 15, 16}. Rezulta
P (AN ) =
5
.
36
1
5
25
, P (N A) =
, P (N N ) = .
36
36
36
Presupunem ca au fost sterse numerele de pe fetele zarului si au ramas culorile. Multimea rezultatelor posibile, n acest caz, este E = {AA, AN, N A, N N } cu probabilitatile
corespunzatoare. Observam ca n acest ultim caz, evenimentele AA, AN, N A, N N sunt
elementare si formeaza un sistem complet de evenimente.
Propriet
ati ale probabilit
atii:
P1. A K : 0 6 P (A) 6 1;
P2. P (E) = 1;
P3. P () = 0;
P4. A, B K, A B = : P (A B) = P (A) + P (B);
P5. A, B K, B A : P (A \ B) = P (A) P (B);
P6. A K
= 1;
: P (A) + P (A)
p
m
, P (B) = .
n
n
mp de probabilitate
Ca
14
n
[
Ai ) =
i=1
n
X
P (Ai ).
i=1
P (A \ B) = P (A) P (A B).
(1.1)
P (A B)
.
P (B)
(1.2)
Observatia 1.2.5 Fie m numarul cazurilor favorabile lui B, p numarul cazurilor favorabile lui A si q favorabile lui A B. Din cele m cazuri favorabile lui B, q sunt favorabile
mp de probabilitate
Ca
15
si lui A sau, ceea ce este acelasi lucru, din cele p cazuri favorabile lui A, q sunt favorabile
si lui B. Avem
m
p
q
P (B) = , P (A) = , P (A B) = .
n
n
n
In ipoteza ca B s-a realizat, raman m cazuri posibile, din care q favorabile lui A. Deci
q
q
n = P (A B) .
P (A|B) =
= m
m
P (B)
n
Aceasta ar putea constitui o justificare a relatiei (1.2).
Observatia 1.2.6 Daca presupunem ca P (A) 6= 0, atunci
P (B|A) =
P (A B)
.
P (A)
(1.3)
P (A B)
P (A)
mp de probabilitate
Ca
16
Reciproc, daca P (A B) = P (A)P (B) si deoarece
P (B|A) =
P (A B)
P (A)P (B)
=
= P (B)
P (A)
P (A)
rezulta a). Cum relatia (1.4) este simetrica n A si B, rezulta ca (1.4) este echivalenta cu
b).
Demonstram ca
(B)
P (A B) = P (A)P
(1.5)
(B) atunci deoarece
este echivalenta cu (1.4). Intr-adevar, daca P (A B) = P (A)P
1
2
deoarece pentru fiecare culoare sunt patru cazuri posibile si doua favorabile (fata cu
culorea respectiva si fata cu cele trei culori). Se constata ca
1
P (A1 A2 ) = P (A1 A3 ) = P (A2 A3 ) = ,
4
dar
P (A1 A2 A3 ) =
1
1
6= P (A1 )P (A2 )P (A3 ) = .
4
8
mp de probabilitate
Ca
1.3
17
Metode de num
arare
Calculul probabilitatilor conduce adesea la numararea diferitelor cazuri posibile. Capitolul din algebra referitor la permutari, aranjamente si combinari este foarte util n aceasta
situatie.
rii. Presupunem ca avem doua situatii A si B, situatia A
Principiul multiplica
se poate realiza n m moduri, iar situatia B n k moduri. Numarul de moduri n are se
poate realiza A si B este m k.
Mai general, presupunem ca avem r > 2 situatii. In prima situatie putem face m1
alegeri, n a doua m2 ,. . ., n a r-a situatie mr alegeri, deci n total m1 m2 . . . mr .
Exemplul 1.3.1 Care este numarul situatiilor care apar aruncand doua zaruri? Pentru
primul zar sunt 6 situatii, pentru al doilea 6 situatii, n total 6 6 situatii.
In continuare vom face distinctie ntre o multime cu o ordine determinata de dispunere
a elementelor sale, numita multime ordonata si o multime n care nu ne intereseaza ordinea
elementelor.
ri: Fie o multime A cu n elemente. Elementele acestei multimi se pot orPermuta
dona n mai multe moduri. Fiecare multime ordonata care se formeaza cu cele n elemente
ale multimii A se numeste permutare a elementelor acelei multimi. Numarul permutarilor
cu n elemente este n! = 1 2 . . . n.
Aranjamente: Fie o multime A cu n elemente. Submultimile ordonate ale lui A,
avand fiecare cate k elemente, 0 6 k 6 n, se numesc aranjamente de n luate cate k.
Numarul aranjamentelor de n luate cate k se noteaza
Akn = n(n 1) . . . (n k + 1).
Exemplul 1.3.2 In cate moduri este posibil sa facem un steag tricolor daca avem la
dispozite panza de steag de cinci culori diferite ?
Doua steaguri tricolore care au aceleasi culori se deosebesc daca ordinea culorilor este
diferita. Deci ne intereseaza cate submultmi de cate trei elemente se pot forma cu elementele unei multimi de cinci elemente, n submultmi interesandu-ne ordinea elementelor.
Deci sunt A35 = 5 4 3 = 60.
ri: Fie o multime A cu n elemente. Submultimile lui A avand fiecare cate k
Combina
elemente, 0 6 k 6 n, n care nu ne intereseaza ordinea elementelor, se numesc combinari
de n luate cate k. Numarul combinarilor de n luate cate k se noteaza
Akn
.
k!
Exemplul 1.3.3 Pentru un joc, cinci fete si trei baieti trebuie sa formeze doua echipe
de cate patru persoane. In cate moduri se pot forma echipele ?
In total sunt 8 copii cu ajutorul carora trebuie facute doua grupe a cate patru copii.
Studiem n cate moduri se poate forma o grupa de 4, cealalta formandu-se din copiii
ramasi. Nu intereseaza numarul de fete sau de baieti din grupa si nici ordinea lor, ci
numai numarul de grupe care se pot forma. Acest numar este
Cnk =
mp de probabilitate
Ca
18
1.4
mp de probabilitate
Ca
19
1.5
(m m1 )!
(m m1 . . . mr )!
m!
...
=
m1 ! (m m1 )! m2 ! (m m1 m2 )!
(m m1 . . . mr )! mr1 !
m!
.
m1 ! m2 ! . . . mr !
Definitia axiomatic
a a probabilit
atii
A K;
b) P (E) = 1;
c) P (A B) = P (A) + P (B)
A, B K, A B = .
Observatia 1.5.1 Axioma c) din definitie se extinde prin recurenta la orice numar finit
de evenimente incompatibile doua cate doua, deci daca Ai Aj = , i 6= j, i, j = 1, n,
atunci
n
n
[
X
P ( Ai ) =
P (Ai ).
i=1
i=1
Definitia clasica a probabilitatii satisface toate axiomele definitiei date si, de asemenea,
oricare din proprietatile prezentate anterior pentru probabilitate poate fi obtinuta din
definitia axiomatica. Intr-adevar,
P1. P () = 0.
Deoarece E = E si E = rezulta ca P (E ) = P (E) + P (), adica
P () = 0.
P2. P (A \ B) = P (A) P (A B).
Deoarece (A\B)(AB) = A si (A\B)(AB) = rezulta P (A\B)+P (AB) =
P (A).
P3. Pentru orice A, B K, A B are loc relatia P (A) 6 P (B).
Intr-adevar, tinand seama de P2 si de faptul ca A B avem
0 6 P (B \ A) = P (B) P (B A) = P (B) P (A).
Deci P (B) P (A) > 0 sau P (B) > P (A).
mp de probabilitate
Ca
20
(1.6)
(1.7)
Deci, fiind date toate evenimentele elementare care compun E, familia K este perfect
determinata si deci campul de probabilitate mai depinde de alegerea a n numere (probabilitatile evenimentelor elementare) care satisfac conditiile (1.6) si (1.7). In cazul particular cand evenimentele elementare sunt echiprobabile
P (A1 ) = P (A2 ) = . . . = P (An ) =
1
,
n
k
si daca A = Ai1 Ai2 . . . Ain , obtinem P (A) = , deci ajungem astfel la definitia
n
clasica a probabilitatii.
Observatia 1.5.4 In definitia axiomatica a probabilitatii conditia pusa cazurilor posibile de a fi egal probabile este superflua. Un exemplu celebru, dat de DAlembert, ilustreaza aceasta. Se arunca doua monede simultan. Exista trei cazuri posibile care nu sunt
echiprobabile: A evenimentul ca pe ambele monede sa apara banul, B evenimentul ca pe
ambele monede sa nu apara banul, C evenimentul ca pe una din monede sa apara banul,
iar pe cealalta nu. Probabilitatile evenimentelor A, B, C nu sunt 1/3.
1
1
1
P (A) = , P (B) = , P (C) = ,
4
4
2
mp de probabilitate
Ca
21
deoarece evenimentul C este compus din doua situatii: pe una din monede sa apara banul
iar pe cealata nu, si invers. Cele doua cazuri care compun evenimentul C ar fi evidente
daca monedele nu s-ar arunca simultan, ci una dupa alta. Cele doua monede pot fi
nedistinse din punct de vedere fizic si deci cele trei cazuri prezentate de DAlembert sunt
de fapt cele trei cazuri care se pot distinge.
1.6
Formule probabilistice
(1.8)
Facem observatia ca vom demonstra formulele folosind definitia axiomatica a probabilitatii. Deoarece A B = A (B \ A) si A (B \ A) = , avem
P (A B) = P (A (B \ A)) = P (A) + P (B \ A)
dar, conform proprietatii P2 din Capitolul 1.5,
P (B \ A) = P (B) P (B A)
si deci rezulta (1.8).
Relatia se poate extinde si n cazul a n evenimente
P(
n
[
n
X
Ai ) =
i=1
P (Ai )
i=1
n
X
n1
P (Ai Aj ) + . . . + (1)
i,j=1,i<j
P(
n
\
Ai ).
(1.9)
i=1
P(
Ai ) = P ((
i=1
n
X
n
[
Ai ) An+1 ) = P (
i=1
P (Ai )
i=1
n
X
n+1
X
i,j=1,i<j
n
\
Ai )
i=1
n+1
\
i=1
P (Ai Aj ) + . . . +
1 i<j<k n+1
n
[
Ai ) An+1 ) =
i=1
P (Ai Aj ) + . . . +(1)n1 P (
i,j=1, i<j
n+1
X
Ai ) + P (An+1 ) P ((
i=1
i,j=1,i<j
n
[
n
X
P (Ai
An+1 )+
i=1
Ai ) =
n+1
X
P (Ai )
i=1
n+1
\
P (Ai Aj Ak ) + . . . + (1)n+1 P (
i=1
Ai ).
mp de probabilitate
Ca
22
Probabilitatea unei intersectii. Fie {E, K, P } un camp finit de evenimente. Oricare ar fi A, B K are loc relatia
P (A|B) =
P (A B)
.
P (B)
Relatia de mai sus rezulta din (1.2). Ea poate fi folosita pentru a calcula probabilitatea
unei intersectii:
P (A B) = P (B)P (A|B).
Cand folosim aceasta formula la rezolvarea unei probleme trebuie sa consideram evenimentele A si B ntr-o ordine convenabil aleasa, dat fiind ca se poate utiliza, datorita
echivalentei demonstrate, relatia
P (A B) = P (A)P (B|A).
Formula se poate extinde si n cazul a n evenimente A1 , A2 , . . ., An , cu P (
k
\
Ai ) 6= 0,
i=1
k = 2, n 1, sub forma
P(
n
\
(1.10)
i=1
P (A2 A1 )
,
P (A1 )
P (A1 A2 A3 )
,
P (A1 A2 )
...
P (An |(A1 A2 . . . An1 )) =
P (A1 A2 . . . An )
.
P (A1 A2 . . . An1 )
mp de probabilitate
Ca
23
n
\
Ai ).
i=1
Formula probabilit
atii totale. Fie {E, K, P } un camp finit de evenimente,
{A1 , A2 , . . . , An }, Ai K, i = 1, n, un sistem complet de evenimente si B un eveniment
oarecare, B K. Atunci
n
X
P (B) =
P (Ai )P (B|Ai ).
(1.11)
i=1
Intr-adevar, deoarece E =
n
[
Ai putem scrie
i=1
B =BE =B(
n
[
Ai ) =
i=1
n
[
(B Ai )
i=1
n
X
P (B Ai ) =
i=1
n
X
P (Ai )P (B|Ai ).
i=1
P (B|Ai )P (Ai )
.
n
X
P (Aj )P (B|Aj )
(1.12)
j=1
In conditiile date prin ipoteza are loc formula probabilitatii totale si tinand seama de
(1.2) obtinem
P (B Ai )
P (B|Ai )P (Ai )
P (Ai |B) =
= n
X
P (B)
P (Aj )P (B|Aj )
j=1
Exemplul 1.6.1 Controlul de calitate.Presupunem ca ntr-o cutie sunt 550 de piese, din
care 2% sunt defecte. Care este probabilitatea ca alegand 25 de piese, acestea sa contina
doua piese defecte. Acesta este principiul testarii produselor prin selectii aleatoare.
Problema poate fi rezolvata ntr-un caz general. Presupunem ca avem k piese defecte
din m piese, k 6 m. Care este probabilitatea ca alegand n piese, dintre acestea j sa fie
defecte?
mp de probabilitate
Ca
24
Putem alege cele n piese dintre cele m(m > n), fara sa ne intereseze ordinea pieselor,
n
n Cm
moduri. Cate din acestea vor contine j piese defecte? Putem alege cele j piese
nj
defecte, din cele k, n Ckj moduri, iar celelalte n j care nu sunt defecte n Cmk
moduri.
Probabilitatea cautata va fi
nj
Cmk
Ckj
.
(1.13)
n
Cm
In cazul nostru, m = 550, k = 11, n = 25, j = 2, astfel ncat probabilitatea cautata va fi
2
23
C11
C550
= 0, 12.
25
C550
nj
n
Ckj Cmk
= Cm
j=0
cu argumente probabilistice.
Exemplul 1.6.2 Daca se amestesca un pachet de carti, care este probabilitatea ca cei
patru asi sa apara unul dupa altul ?
Sunt 52 de carti dintre care patru asi. Un rezultat posibil al experientei este o nsiruire
de 52 de carti, adica o permutare a celor 52 de carti. Sunt 52! cazuri posibile. In cate din
aceste cazuri cei patru asi se gasesc unul dupa altul? Cei patru asi pot apare consecutiv
n 49 4! moduri. Restul de 48 de carti se pot aranja n 48! moduri. Folosind principiul
multiplicarii, numarul cazurilor favorabile va fi 4! 49 48!. Probabilitatea cautata va fi
49! 4
= 0, 00003.
52!
Exemplul 1.6.3 Urna U1 contine doua bile rosii si patru albe, urna U2 contine o bila
rosie si doua albe iar urna U3 contine cinci bile rosii si patru bile albe. Fie Ai evenimentul
de a extrage o bila dintr-o urna oarecare Ui , i = 1, 3. Presupunem ca probabilitatea
de a extrage o bila din urna Ui este P (A1 ) = 1/3, din U2 este P (A2 ) = 1/6 si din
U3 , P (A3 ) = 1/2. Se cere probabilitatea de a extrage o bila rosie.
Fie R evenimentul de a extrage o bila rosie. Observam ca P (R) depinde n primul
rnd de urna din care s-a facut extragerea si apoi de structura urnei din care am facut
extragerea, adica R este reuniunea evenimentelor disjuncte A1 R, A2 R, A3 R. Facem
observatia ca A1 , A2 , A3 formeaza un sistem complet de evenimente. Astfel
P (R) = P (
3
[
(Ai R)) =
i=1
3
X
i=1
P (Ai R) =
3
X
P (Ai )P (R|Ai ) =
i=1
4
9
Presupunem acum ca rezultatul experientei este o bila rosie, dar nu stim din ce urna
provine. Dorim sa calculam probabilitatea ca bila rosie sa provina din urna U1 , adica
P (A1 |R). Conform formulei lui Bayes
P (A1 |R) =
1
P (A1 )P (R|A1 )
= .
P (R)
4
mp de probabilitate
Ca
25
La fel
1
5
P (A3 |R) = .
8
8
Observam ca probabilitatile conditionate P (A1 |R), P (A2 |R), P (A3 |R) s-au modificat fata
de probabilitatile initiale P (A1 ), P (A2 ), P (A3 ) ntr-un mod care confirma intuitia, adica
daca s-a extras o bila rosie, probabilitatea ca sa apartina urnei U3 este mai mare deoarece
U3 are un procent mai ridicat de bile rosii si, de asemenea, probabilitatea de a selecta o bila
rosie din U3 este mai mare decat din U2 sau U1 . Adesea P (A1 ), P (A2 ), P (A3 ) se numesc
probabilitati apriori, iar P (A1 |R), P (A2 |R), P (A3 |R) se numesc probabilitati aposteriori.
P (A2 |R) =
Exemplul 1.6.4 Un canal transmite semnale sub forma de siruri formate din cifrele 0
si 1. In canal pot apare perturbari care produc erori, astfel ncat n loc de 1 apare
0 sau invers. Sa presupunem ca prin B1 si B2 ntelegem evenimentele care constau n
transmiterea cifrelor 1, respectiv 0, iar receptionarea cifrelor 1 si 0 le consideram ca fiind
evenimentele aleatoare A1 si respectiv A2 . Probabilitatile apriori pentru transmiterea lui
1 sau 0 sunt
P (B1 ) = p P (B2 ) = 1 p = q
iar probabilitatea de a receptiona 0, daca s-a transmis 1, este egala cu q10 , pe cand probabilitatea de a receptiona 1, daca s-a transmis 0, este q01 . Sa calculam probabilitatile
aposteriori P (Bj |Ak ), j, k = 1, 2.
Conform formulei lui Bayes avem
P (Bj |Ak ) =
Deoarece avem P (A2 |B1 ) = q10 , P (A1 |B2 ) = q01 si notand p10 = 1 q10 , p01 = 1 q01 se
deduce
P (B1 |A1 ) =
pp10
p(1 p10 )
, P (B1 |A2 ) =
,
pp10 + (1 p)(1 p01 )
p(1 p10 ) + (1 p)p01
P (B2 |A1 ) =
(1 p)(1 p10 )
(1 p)p01
, P (B2 |A2 ) =
.
pp10 + (1 p)(1 p01 )
p(1 p10 ) + (1 p)p01
Sa observam ca
P (A1 ) = P (B1 )P (A1 |B1 ) + P (B2 )P (A1 |B2 ) = pp10 + (1 p)(1 p01 ),
iar
P (A2 ) = P (B1 )P (A2 |B1 ) + P (B2 )P (A2 |B2 ) = p(1 p10 ) + (1 p)p01 = 1 P (A1 ).
In particular, n ipoteza ca este vorba de un canal simetric (q01 = q10 si deci p01 = p10 ),
iar p = q = 12 se deduce
1
1
P (A1 ) = pp10 + (1 p)(1 p10 ) = , P (A2 ) = p(1 p10 ) + (1 p)p10 =
2
2
P (B1 |A2 ) = P (B2 |A1 ) = 1 p10 , P (B1 |A1 ) = P (B2 |A2 ) = p10 .
ceea ce era previzibil.
mp de probabilitate
Ca
26
iI
[
P (( Ai ) A)
iI
iI
P (A)
iI
[
P ( (Ai A))
P (A)
si tinand seama de
(Ai A) (Aj A) = , i, j I, i 6= j,
obtinem
X
[
P (( Ai )|A)) =
iI
P (A)
iI
X
P (Ai |A)P (A)
P (Ai A)
=
iI
P (A)
P (Ai |A).
iI
Exemplul 1.6.6 Fie I o multime finita de indici, {Ai }iI un sistem complet de evenimente si A, B doua evenimente oarecare. Atunci
[
X
P ( (A Ai )|B) =
P (A|(Ai B))P (Ai |B)
(1.15)
iI
iI
X
=
X
P (A Ai B)
iI
P (B)
iI
iI
P (B)
=
iI
P (B)
iI
1.7
Schema lui Poisson. Se dau n urne U1 , U2 , . . . , Un care contin bile albe si bile negre
n proportii date, deci cunoastem probabilitatile pi , i = 1, n, cu care este extrasa o bila
alba din urna Ui . Se cere probabilitatea de a extrage k bile albe si n k bile negre, atunci
cand din fiecare urna se extrage cate o bila.
mp de probabilitate
Ca
27
Notam cu Ai evenimentul extragerii unei bile albe din urna Ui . Notam si Bk evenimentul care consta n extragerea a k bile albe si n k bile negre, adica
Bk = (A1 . . . Ak Ak+1 An ) (A1 . . . Ak Ak+1 Ak+2 . . . An )
(A1 . . . Ank Ank+1 . . . An ),
numarul parantezelor fiind Cnk . Un eveniment
Ai1 . . . Aik Aik+1 . . . Ain
se realizeaza, tinand seama ca evenimentele sunt independente, cu probabilitatea
pi1 . . . pik qik+1 . . . qin
indicii i1 , i2 . . . , in reprezentand o permutare a indicilor 1, 2, . . . , n , iar litera p apare de
k ori cu indici diferiti, iar q de n k ori cu indici care nu apar n p . Se observa ca dupa
aceiasi regula se calculeaza coeficientul lui xk din polinomul
P (x) = (p1 x + q1 )(p2 x + q2 ) . . . (pn x + qn ).
Schema lui Poisson permite rezolvarea problemelor n care se cere probabilitatea realizarii
de k ori a unor evenimente A1 , A2 , . . . , An atunci cand se repeta de n ori aceste experiente,
presupuse independente, cand cunoastem P (Ai ) = pi , i = 1, n.
Exemplul 1.7.1 Intr-un atelier sunt trei masini. Prima da 0,9 % rebut, a doua 1 % si a
treia 1,3 %. Se ia la ntamplare cate o piesa de la fiecare masina. Se cere probabilitatea
ca doua din piese sa fie bune si una rebut.
p1 = 0, 991, q1 = 0, 001, p2 = 0, 99,
.
q2 = 0, 01, p3 = 0, 987, q3 = 0, 013,
P (x) = (0, 991x + 0, 009)(0, 99x + 0, 01)(0, 987x + 0, 013).
Coeficientul lui x2 este
0, 991 0, 99 0, 013 + 0, 99 0, 987 0, 987 0, 009 + 0, 991 0, 987 0, 01 = 0, 0313.
Schema lui Bernoulli. Presupunem ca n schema lui Poisson urnele U1 , U2 , . . . , Un
sunt identice. Atunci putem lua
p1 = p2 = . . . = pn = p,
q 1 = q2 = . . . = qn = q
Probabilitatea extragerii a k bile albe se va obtine calculand coeficientul lui xk din polinomul
P (x) = (px + q)n ,
adica va fi
Cnk pk q nk .
Recunoastem n aceasta expresie termenul general al ridicarii la puterea n a binomului px+
q. Pentru acest motiv schema se mai numeste binomiala. Deoarece urnele sunt identice,
mp de probabilitate
Ca
28
putem considera ca toate extragerile se fac dintr-o singura urna, bila extrasa punandu-se
n urna dupa fiecare extragere. Obtinem astfel schema lui Bernoulli. Probabilitatea de a
extrage k bile albe din n extrageri dintr-o urna, punandu-se de fiecare data bila napoi,
este
Pn,k = Cnk pk q nk ,
unde p este probabilitatea otinerii unei bile albe dintr-o singura extragere si q = 1 p.
Schema lui Bernoulli se mai numeste shema bilei revenite (ntoarse).
Exemplul 1.7.2 Se arunca un zar de 5 ori. Se cere probabilitatea ca fata cu un punct
sa apara exact de doua ori.
Avem:
1
5
p = , q = , n = 5, k = 2,
6
6
1 5
P5,2 = C52 ( )2 ( )3 = 0, 16.
6 6
Schema lui Bernoulli cu mai multe st
ari. Fie o urna care contine bile de m
culori c1 , c2 , . . . , cm iar pi probabilitatea ca la o extragere sa obtinem o bila de culoarea
ci . Probabilitatea ca n n extrageri sa obtinem n1 bile de culoarea c1 , n2 bile de culoarea
c2 , . . . , nm bile de culoarea cm (n1 + n2 + . . . + nm = n) este
n!
pn1 1 pn2 2 . . . pnmm .
n1 ! n2 ! . . . nm !
Aceasta schema rezolva problemele n care se cere probabilitatea ca n n efectuari ale
experientei evenimentul Ai sa se realizeze de ni ori, A1 , A2 , . . . , Am fiind un sistem complet
de evenimente si P (Ai ) = pi , i = 1, m. Presupunem ca n cele n efectuari ale experientei
s-au obtinut succesiv
A1 . . . A1 A2 . . . A2 . . . Am . . . Am .
| {z } | {z } | {z }
n1
n2
nm
n2
nm
Acelasi rezultat l obtinem pentru orice alta ordine stabilita dinainte n care Ai apare de
ni ori. Ramane sa vedem n cate moduri putem scrie cele n simboluri, dintre care n1 egale
cu A1 , n2 cu A2 , . . . , nm cu Am .
n2
n3
nm
Cnn
. . . Cnn
=
Cnn1 Cnn
1
1 n2
1 n2 ...nm1
n!
(n n1 . . . nm1 )!
(n n1 )!
...
=
n1 ! (n n1 )! n2 ! (n n1 n2 )!
nm ! (n n1 . . . nnm )!
=
n!
.
n1 ! . . . nm !
mp de probabilitate
Ca
29
Exemplul 1.7.3 Se arunca un zar de 5 ori. Care este probabilitatea ca exact de doua
ori sa apara fata cu un punct si exact de 2 ori sa apara fata cu doua puncte?
Avem:
n = 5, n1 = 2, n2 = 2, n3 = 1,
1
1
2
p1 = , p2 = , p3 = ,
6
6
3
5!
1 1 2
5
P4,2,2,1 =
( )2 ( )2 ( ) =
.
2! 2! 1!
6 6 3
324
Schema hipergeometric
a. O urna contine a bile albe si b bile negre. Din aceasta
urna se extrag n bile (n 6 a + b) pe rand, fara a pune bila extrasa napoi n urna (ceea
ce este echivalent cu a extrage n bile deodata). Se cere probabilitatea ca din cele n
bile extrase, k sa fie albe (k 6 a) si n k negre (n k 6 b). Pentru a calcula acesta
probabilitate vom stabili numarul cazurilor posibile si numarul cazurlor favorabile.
n
Numarul cazurilor posibile este: Ca+b
.
Numarul cazurilor favorabile: un grup de k bile albe dintr-un total de a bile albe
poate fi luat n Cak moduri; un grup de n k bile negre din totalul de b bile negre poate
fi obtinut n Cbnk moduri. Un grup de k bile albe si n k bile negre poate fi obtinut,
conform principiului multiplicarii, n Cak Cbnk moduri. Probabilitatea cautata este
Cak Cbnk
.
n
Ca+b
Exemplul 1.7.4 La o tombola sunt 400 bilete dintre care 4 castigatoare. O persoana
cumpara 10 bilete. Care este probabilitatea sa nu se gaseasca nici un bilet castigator?
Avem
a = 4, b = 396,
k = 0,
n k = 10,
p=
n = 10,
10
C40 C396
= 0, 903.
10
C400
n2 = 3,
n3 = 3,
mp de probabilitate
Ca
30
1.8
C
amp infinit de probabilitate
b) (An )nIN K
An K.
nIN
n
[
[
Ai =
Ai K
i=1
i=1
C3. Orice intersectie (finita sau numarabita) de elemente din K este de asemenea n K.
Fie I o multime de indici finita sau numarabila
\
Ai =
iI
Ai K
iI
Ai K
iI
K).
C4. Daca A, B K atunci A \ B K (deoarece A \ B = A B
C5. Daca (An )nIN K atunci
lim inf An K;
n
lim sup An K.
n
T
inem seama de definitia limitei inferioare, respectiv superioare, de consecintele C2,
C3 si obtinem
\
[
lim inf =
(
Ak ) K;
\
lim sup =
(
Ak ) K.
n=1 k=n
n=1 k=n
mp de probabilitate
Ca
31
C6. Daca (An )nIN K, atunci lim An K, daca aceasta limita exista. In acest caz
n
Observatia 1.8.1 Intr-un camp infinit de evenimente sunt permise operatiile clasice cu
multimi.
Pentru a introduce notiunea de probabilitate n asemenea cazuri, definim notiunea de
masura a unui eveniment al unui camp infinit de evenimente.
Definitia 1.8.2 Se numeste masura a unui eveniment A al campului infinit de evenimente { E, K } o functie
m : K IR
care satisface urmatoarele axiome:
a) A K : m(A) > 0;
b) m() = 0;
[
X
c) m( Ai ) =
m(A) pentru (Ai )iI K cu Ai Aj = i 6= j i, j I, iar I o
iI
iI
[
vorbi numai n cazul n care campul de evenimente este infinit. Introducem
Ai ca fiind
i=1
\
Analog, evenimentul
Ai consta n realizarea tuturor evenimentelor A1 , A2 , . . . , An . . ..
i=1
n
[
i=1
Ai ) =
n
X
m(Ai ).
i=1
Observatia 1.8.4 Din multimea functiilor de evenimente care satisfac axiomele a)-c)
intereseaza numai acelea pentru care m(E) < , E fiind evenimentul cert.
a m(E) < atunci pentru orice eveniment A avem m(A) < .
Propozitia 1.8.1 Dac
= m(A)+m(A)
= m(E) < .
Demonstratie. Deoarece A A = E, A A = m(A A)
> 0 m(A) 6 m(E) < m(A) < .
Dar m(A)
mp de probabilitate
Ca
32
1
m(E)
m(A)
.
m(K)
X
i IN : pi > 0,
pi = 1
i=1
ei A
mp de probabilitate
Ca
33
Exemplul 1.8.3 Fie B corpul borelian generat de multimea partilor deschise de pe axa
reala IR si o functie f definita pe E B cu valori n IR, integrabila n raport cu masura
Lebesque [vezi 22] si care ndeplineste conditiile
Z
f (x) > 0,
f (x)dx = 1.
E
Z
P (A) =
f (x)A (x)dx
E
pentru A K, unde
A (e) =
1,
0,
daca e A,
dac
ae
/ A,
Z
P (A) =
f (x)dx.
A
f (x) =
sau
f
(x)
=
e 2.
(1 + x2 )
2
In campurile infinite de probabilitate se pastreaza notiunile si proprietatile din campurile finite de probabilitate.
1. Probabilitatea conditionata se defineste plecand de la relatia
P (A|B) =
P (A B)
, daca P (B) 6= 0.
P (B)
P (B)
= 1.
P (B)
Daca (Ai )iI K este o familie cel mult numaarbila de evenimente incompatibile doua cate doua, atunci si evenimentele (A Ai )iI sunt incompatibile doua
cate doua si
[
[
P ( (B Ai ))
P (B ( Ai ))
\
iI
iI
=
=
P ( Ai |B) =
P
(B)
P
(B)
iI
mp de probabilitate
Ca
34
X
=
P (B Ai )
iI
P (B)
P (Ai |B).
iI
2. Formula probabilitatii totale si formula lui Bayes raman valabile daca consideram
sisteme complete de evenimente numarabile. Fie (Ai )iI [
K o familie cel mult
Ai = E si P (Ai ) 6=
numarabila de evenimente incompatibile doua cate doua cu
iI
0, i I, atunci
P (A) =
P (Ai )P (A|Ai )
iI
si
P (Ai )P (A|Ai )
P (Ai |A) = X
P (Aj )P (A|Aj )
i I.
jI
Definitia 1.8.6 Se spune ca evenimentele (An )nIN K sunt independente daca orice
num
ar finit de evenimente din acest sir este independent.
Exista si proprietati noi ale functiei de probabilitate P cum ar fi urmatoarele:
Propozitia 1.8.2 Fie (An )nIN K si P o functie de probabilitate. Atunci
[
X
P(
An ) 6
P (An ).
nIN
nIN
= An+1 \ (
n
[
Aj ).
j=1
Evenimentele (A0n )nIN prin modul n care au fost construite sunt incompatibile doua
cate doua; n plus A0n An , n IN . Demonstram ca
[
[
An .
A0n =
nIN
Evident
[
nIN
A0n
nIN
An .
nIN
nIN
[
nIN
A0n ,
mp de probabilitate
Ca
35
[
An
nIN
A0n
nIN
nIN
nIN
nIN
iI
iI
deci
\
[
[
P ( Ai ) = P ( Ai ) = 1 P ( Ai )
iI
dar
iI
iI
[
X
P ( Ai ) 6
P (Ai )
iI
iI
nIN
\
lim P (An ) = P (
An ) = P (A).
n
nIN
mp de probabilitate
Ca
36
daca k 6= s si obtinem
P (An ) =
X
P (Ai \ Ai+1 ) =
(P (Ai ) P (Ai+1 )),
i=n
iar seria
i=n
i=1
este convergenta, deci restul seriei converge la zero cand n , deci lim P (An) = 0.
n
\
Cn = , rezulta, conform cazului a) ca
n=1
lim P (Cn ) = 0
Dar
P (Cn ) = P (An \ A) = P (An ) P (A)
si deci
lim P (An ) = P (A).
Propozit
ia 1.8.5 Fie (An )nIN un sir ascendent de evenimente din K. Daca A =
[
An , atunci
nIN
[
lim P (An ) = P (
An ) = P (A).
n
nIN
mp de probabilitate
Ca
1.9
37
Probleme propuse
Problema 1.1 Se joaca un joc. Partida este considerata castigata de primul dintre cei
doi jucatori care castiga trei jocuri. Daca jocul se ntrerupe la scorul de 2-1, cum trebuie
mpartita miza?
Solutie. La prima vedere s-ar parea ca miza trebuie mpartita n trei parti egale si
castigatorul ia doua parti. Corect este ca miza sa fie mpartita proportional cu probabilitatea pe care o are fiecare jucator de a castiga partida, daca acesta ar fi continuat.
Sa presupunem ca se mai joaca doua jocuri (indiferent de rezultatul primului joc).
Notam cu 1 daca jucatorul a castigat partida si cu 0 daca a piedut-o. Prin notatia (1,
0) ntelegem ca primul jucator a castigat prima partida iar al doilea nu a piedut a doua
partida. Sunt urmatoarele posibilitati: (1, 1), (1, 0), (0, 1) si (0, 0), din care rezulta ca
primul jucator, care conduce cu 2-1, are trei sanse si al doilea una singura. Miza trebuie
mpartita n patru parti egale si primul jucator ia trei parti, iar al doilea o parte.
Problema 1.2 Un student are de raspuns la n ntrebari, carora trebuie sa le asocieze
raspunsul corect dintre n raspunsuri indicate. Stabiliti probabilitatea ca studentul sa
raspunda la:
a) prima ntrbare;
b) primele doua ntrebari;
c) cel putin o ntrebare.
Indicatie. a) numatul cazurilor posibile: n!, numarul cazurilor favirabile (n 1)!,
probabilitatea cautata: 1/n;
b) 1/(n 2)!;
c) daca notam cu Ai evenimentul ca studentul raspunde corect la ntrebarea i, evenimentul cautat este A1 A2 . . . An . Folosind formula (1.9) obtinem: 1 1/2! + 1/3!
. . . + (1)n1 1/n!.
Problema 1.3 Evenimentul A consta n aparitia cel putin o data a fetei 5 aruncand
un zar de 4 ori, iar evenimentul B consta n aparitia fetei 5 cel putin de doua ori, aruncand
de 18 ori cate doua zaruri. Care din cele doua evenimente este cel mai probabil?
Indicatie. Se poate interpreta aparitia fetei 5 a unui zar ca o urna cu doua stari, una
5 4
5 4
5 41
( )35
P (B)
6 < 7( 5 )31 < 1.
= 6
5
6
P (A)
( )4
6
mp de probabilitate
Ca
38
i=1
Problema 1.5 Un circuit electric are patru relee a caror functionare este egal probabila (functioneaza si se pot defecta independent unul de celalalt), montate dupa Figura
1.1. Calculati probabilitatea ca ntre punctele A si B sa nu circule curentul.
Solutie. Ntoam cu Ai evenimentul releul Ri este defect. Curentul nu circula atunci
cand se realizeaza evenimentul
((A1 A2 ) A4 ) A3 = (A1 A4 ) (A2 A4 ) A3 .
Cum orice releu poate fi n doua pozitii, nchis sau deschis, rezulta ca numarul cazurilor
posibile este 24 = 16.
Probabilitatea cautata este 2 4/16 8/16 3 2/16 + 1/16.
Problema 1.6 Trei mesaje sunt transmise pe un canal de comunicare, pe fiecare dintre
ele putand fi transmis cu o anumita exactitate. Transmiterea unui mesaj poate conduce
la unul din urmatoarele evenimente:
a) A1 = { mesajul este transmis ntr-o forma corecta }.
b) A2 = { mesajul este partial eronat }.
c) A3 = { mesajul este complet eronat }.
Probabilitatile evenimentelor A1 , A2 , A3 sunt date si anume egale cu p1 , p2 si p3 , (p1 +
p2 + p3 = 1). Considerand ca transmiterea corecta sau eronata a unui mesaj nu este
influentata de modul de transmitere a celorlalte (independenta evenimentelor), sa se
gaseasca probabilitatle urmatoarelor evenimente:
i) A = { toate mesajele sunt transmise corect }.
ii) B = { cel putin un mesaj sa fie complet eronat }.
iii) C = { cel putin doua mesaje sunt partial sau complet eronate }.
Solutie. Notam urmatoarele evenimente astfel:
A11 = { primul mesaj transmis este corect },
A12 = { al doilea mesaj transmis este corect },
A13 = { al treilea mesaj transmis este corect },
A21 = { primul mesaj transmis este partial eronat },
A22 = { al doilea mesaj transmis este partial eronat },
A23 = { al treilea mesaj transmis este partial eronat },
A31 = { primul mesaj transmis este complet eronat },
mp de probabilitate
Ca
39
mp de probabilitate
Ca
40
Problema 1.10 Un bloc de 100 de biti este transmis pe un canal de comunicatie binar
cu probabilitatea de eroare pe bit 103 . Sa se gaseaca probabilitatea ca blocul sa contina
trei sau mai mult de trei erori.
R:1.5 104 .
Problema 1.11 Un asamblor de calculatoare foloseste circuite din trei surse: A, B
si C. Ele pot fi defecte cu probabilitatile de respectiv 0,001, 0,005 si 0,01. Daca se ia un
circuit la ntmplare si se constata ca este defect, care este probabilitatea ca el sa provina
de la sursa A sau B.
Solutie. Fie A1 evenimentul ca circuitul sa provina de la sursa A, A2 de la sursa B
si A3 sa provina de la sursa C. Fie D evenimentul ca circuitul folosit sa fie defect, iar
D|Ai , i = 1, 2, 3 evenimentul ca circuitul folosit sa fie defect stiind ca el provine de la sursa
A, B si respectiv C. Avem
P (D|A1 ) = 0, 001, P (D|A2 ) = 0, 005, P (D|A3 ) = 0, 01
Folosind formula lui Bayes (1.12) obtinem
P (A1 |D) = 1/16, P (A2 |D) = 10/16.
Deoarece evenimentele A1 |D si A2 |D sunt incompatible, rezulta
P (A1 A2 |D) = P (A1 |D) + P (A2 |D) = 11/16 = 0, 6875.
Problema 1.12 Multe sisteme de comunicatie pot fi modelate n felul urmator: mai
ntai utilizatorul introduce 0 sau 1 n sistem si semnalul corespunzator este transmis; n
al doilea rand ia o decizie asupra a ceea ce s-a introdus n sistem pe baza semnalului
receptionat. Presupunem ca utilizatorul transmite 0 cu probabilitatea 1 p si 1 cu probabilitatea p si ca cel ce receptioneaza ia o decizie eronata cu probabilitatea . Pentru
i = 0, 1 fie Ai evenimentul ca la intrare s-a introdus i si Bi evenimentul ca decizia celui
ce receptioneaza a fost i. Sa se calculeze probabilitatile P (Ai Bj ) pentru i = 0, 1 si
j = 0, 1.
Presupunem ca probabilitatile ca la intrare sa se transmita 0 sau 1 sunt egale cu 1/2.
Sa se calculeze probabilitatea evenimentului B1 . Dar probabilitatea de a se fi transmis 0
stiind ca s-a receptionat 1? Dar probabilitatea de a se fi transmis 1 stiind ca s-a receptionat
1?
Solutie.
mp de probabilitate
Ca
41
Se obtin probabilitatile
P (A0 B0 ) = (1 p)(1 )
P (A0 B1 ) = (1 p)
P (A1 B0 ) = p
P (A1 B1 ) = p(1 ).
Evenimentele A1 si A2 formeaza un sistem complet de evenimente pentru spatiul de selectie
E = {0, 1}. Pentru a calcula probabilitatea evenimentului B1 aplicam formula probabilitatii totale:
P (B1 ) = P (A0 )P (B1 |A0 ) + P (A1 )P (B1 |A1 ) = 1/2 + 1/2(1 ) = 1/2.
Aplicand formula lui Bayes obtinem probabilitatile (pe care le-am mai numit posteori);
P (B1 |A0 )P (A0 )
/2
=
=
P (B1 )
1/2
P (B1 |A1 )P (A1 )
(1 )/2
P (A1 |B1 ) =
=
= 1 .
P (B1 )
1/2
P (A0 |B1 ) =
Daca este mai mic decat 1/2 atunci este mai probabil ca la intrare sa avem 1 decat 0
daca la iesire s-a primit semnalul 1.
Problema 1.13 Un sistem consta dintr-o unitate centrala si trei unitati periferice.
Sistemul functioneaza la capacitate optima daca unitatea centrala si doua unitati periferice functioneaza. Sa se calculeze probabilitatea ca sistemul sa functioneze la capacitate
optima presupunand ca defectarea unitatilor se face independent una de cealalta.
Solutie. Definim urmatorele evenimente: A-unitatea centrala functioneaza; Bi -unitatea periferica i functioneaza, unde i = 1, 2, 3. Evenimentul F -doua sau mai multe unitati
periferice functioneaza nseamna ca toate trei unitatile periferice functioneaza sau exact
doua unitati periferice functioneaza. Astfel:
3 ) (B1 B
2 B3 ) (B
1 B2 B3 )
F = (B1 B2 B
(B1 B2 B3 ).
Observam ca evenimentele de mai sus din paranteze sunt indepandente ntre ele si deci
3 ) + P (B1 )P (B
2 )P (B3 )+
P (F ) = P (B1 )P (B2 )P (B
1 )P (B2 )P (B3 ) + P (B1 )P (B2 )P (B3 ) =
+P (B
= 3(1 a)2 a + (1 a)3
unde s-a presupus ca fiecare periferic se defecteaza cu probabilitatea egala cu a, astfel ncat
i ) = a. Evenimentul sistemul functioneaza la capacitate optima
P (Bi ) = 1 a si P (B
este A F . Daca presupunem ca unitatea centrala se defecteaza cu probabilitatea p,
atunci:
P (A F ) = P (A) P (F ) = (1 p)P (F ) = (1 p)3(1 a)2 a + (1 a)3 .
Fie a = 10%, atunci toate cele trei periferice sunt functionale (1 a)3 = 72, 9% din timp
iar doua sunt functionale si una defecta 3(1 a)2 a = 24, 3% din timp. Astfel doua sau
mp de probabilitate
Ca
42
mai multe, periferice functtioneaza 97, 2% din timp. Presupunem ca unitatea centrala nu
este foarte buna, si anume p = 20%, atunci sistemul functioneaza la capacitate optima
numai 77, 8% din timp, aceasta datorita faptului ca unitatea centrala se defecteaza.
Presupunem ca s-a introdus n sistem o a doua unitate centrala identica cu prima,
adica p = 20% si sistemul functioneaza la capacitate optima daca macar una din cele doua
unitati centrale functioneaza. Sa calculam cat la suta din timp functioneaza sistemul n
acest caz. Definim evenimentele Ai -unitatea centrala i = 1, 2 functioneaza. Evenimentul
sistemul functioneaza la capacitate optima este, n acest caz, (A1 F )(A2 F ). Atunci
P [(A1 F ) (A2 F )] = P (A1 F ) + P (A2 F )
P [(A1 F ) (A2 F )] = P (A1 ) P (F ) + P (A2 ) P (F ) P (A1 A2 F ) =
= P (A1 ) P (F ) + P (A2 ) P (F ) P (A1 ) P (A2 ) P (F ) =
= 2(1 p)3(1 a)2 a + (1 a)3 (1 p)2 3(1 a)2 a + (1 a)3 = 93, 3%
Aceasta a condus la o crestere de 15.5% a timpului de functionare fata de cazul n care
sistemul functiona cu o singura unitate centrala.
Problema 1.14 Un sistem de comunicatie transmite informatie bimara pe un canal
care introduce la transmiterea unui bit erori aleatoare cu probabilitatea = 103 . Fiecare
bit este transmis de trei ori si n functie de semnalul majoritar receptionat se decide
informatia ca fiind cea transmisa. Sa se calculeze probabilitatea ca decizia luata sa fie
incorecta.
Solutie. Cel ce receptioneaza va lua o decizie eronata daca canalul introduce doua
sau mai multe erori. Daca privim fiecare transmitere ca o experienta Bernoulli n care
realizarea evenimentului corespunde introducerii unei erori, atunci probabilitatea de a se
produce doua sau mai multe erori n trei experiente Bernoulli este
P [k > 2] = C32 (0, 001)2 (0, 999) + C33 (0, 001)3 3 106
3
5
P (H1 ) = , P (H2 ) =
8
8
mp de probabilitate
Ca
43
si
3
1
2
2
P (A|H1 ) = , P (A|H2 ) = , P (B|H1 ) = , P (B|H2 ) = .
5
3
5
3
Folosind formula probabilitatii totale obtinem:
P (A) =
53 31
1
52 32
1
+
= , P (B) =
+
= .
85 83
2
85 83
2
P (H1 )P (A|H1 )
3
= ,
P (A)
4
b) P (H2 |B) =
P (H2 )P (B|H2 )
1
= .
P (B)
2
44
mp de probabilitate
Ca
Capitolul 2
Variabile aleatoare discrete
2.1
Una din notiunile fundamentele ale teoriei probabilitatilor este cea de variabila aleatoare.
Teoria clasica a probabilitatilor opereaza, n principal, cu evenimente, iar teoria moderna
prefera, unde este posibil, sa studieze variabile aleatoare.
Fie { E,K,P } un camp borelian de probabilitate care a fost definit n Capitolul 1.8.
Definitia 2.1.1 Functia
X : E IR
se numeste variabila aleatoare daca
x IR
{e E | X(e) < x} K.
(2.1)
46
(2.2)
2.2
Conditia (2.1) din Definitia 2.1.2 are loc ntotdeauna n cazul variabilelor aleatoare discrete, alegand eventual un camp borelian convenabil. In cest caz putem spune ca:
a.
Definitia 2.2.1 Fie { E, K, P } un camp de probabilitate cu E cel mult numarabil
Se numeste variabila aleatoare orice aplicatie X definita pe multimea evenimentelor elementare cu valori n multimea numerelor reale IR.
Ilustram trecerea de la eveniment la variabila aleatoare.
Exemplul 2.2.1 Consideram o experienta si un eveniment A legat de aceasta. In loc de
evenimentul A putem considera functia A care ia valoarea 1 daca s-a realizat A si 0 daca
adica daca A E, A K:
s-a realizat A,
A : E {0, 1}
1, daca e A
A (e) =
0, daca e
/ A.
Functia A se numeste indicatoarea evenimentului A (variabila aleatoare a evenimentului
A).
47
X:
cu pi > 0, i = 1, n,
n
X
x 1 x2 . . . x n
p1 p2 . . . pn
(2.3)
i=1
iar pi probabilitatile cu care variabila aleatoare ia aceste valori. Tabelul 2.3 se numeste
tabloul de repartitie al variabilei aleatoare X.
Facem conventia ca n tabloul de repartitie sa se treaca valorile variabilei aleatoare
distincte, iar valorile luate cu probabilitatea 0 sa nu fie trecute.
Observatia 2.2.1 Fie xk o valoare a variabilei aleatoare X. Valorii xk i corespunde, n
general, o multime de evenimente elementare. Rezolvand ecuatia xk = X(e) n raport
cu e obtinem e = X 1 (xk ), n general, o functie multivoca, deci la un xk pot corespunde
mai multe valori ale lui e. Reuniunea acestora formeaza un eveniment Ak al campului
(k 6 n). Deoarece valorile xk sunt diferite, evenimentele Ak sunt incompatibile doua cate
doua si formeaza un sistem complet de evenimente. Observam ca
pk = P (Ak ) = P ({e E | X(e) = xk })
si
n
X
k=1
pk =
n
X
k=1
P (Ak ) = P (
n
[
Ak ) = P (E) = 1.
k=1
Deci data o variabila aleatoare, putem sa-i atasam un sistem complet de evenimente.
Reciproca afirmatiei este tocmai Exemplul 2.2.2.
Exemplul 2.2.2 Consideram experienta care consta n aruncarea unui zar omogen. Fie
variabila aleatoare X care ia ca valori numarul de puncte aparute pe fata zarului. Sa se
scrie tabloul de repartitie al acestei variabile aleatoare.
Multimea evenimentelor elementare este {1, 2, 3, 4, 5, 6} si ea coincide, n acest caz, cu E
!
1 2 3 4 5 6
1 1 1 1 1 1 .
X:
6 6 6 6 6 6
Daca consideram evenimentele A si B legate de aceeasi experienta si anume A evenimentul
care consta n obtinerea unui numar par de puncte, iar B evenimentul care consta n
48
3
\
i=1
Ai ) =
3
Y
P (Ai ) = 0, 075,
i=1
41
= 0, 41,
100
3
= 0, 12,
25
0
1
2
3
0, 075 0, 395 0, 41 0, 12
.
De cele mai multe ori n calcule este suficient sa cunoastem valorile pe care le ia o
variabila aleatoare si probabilitatile respective. Dar, n general, cunoasterea acestor date
nu este suficienta pentru determinarea completa a variabilei aleatoare, asa cum se va
vedea n exemplul urmator.
Exemplul 2.2.4 Consideram experienta care consta n aruncarea unui zar. Legat de
aceasta ne imaginam un joc: celui care arunca zarul i se acorda 1 punct daca apare una
din fetele cu 1 sau 2 puncte, 2 puncte daca apare una din fetele cu 3 sau 4 puncte, 3
puncte daca apare una din fetele cu 5 sau 6 puncte. Daca notam cu X variabila aleatoare
49
0,
daca x 6 x1 ,
p
,
daca x1 < x 6 x2 ,
p1 + p2 ,
daca x2 < x 6 x3 ,
F (x) =
.
.
.
1
1,
daca xn < x.
In aceasta definitie am presupus, pentru simplitate, x1 < x2 < . . . < xn . Graficul acestei
functii este prezentat n Figura 2.1.
50
si deci
F (x) = p1 u(x) + p2 u(x x1 ) + . . . + pn u(x xn ) =
n
X
pk u(x xk ),
k=1
unde pk = P ({X < xk }). Putem introduce si n cazul discret (pentru cazul continuu se
poate consulta Capitolul 3) functia densitate de probabilitate tinand seama de legatura
dintre functia unitate si distributia Dirac. Astfel, tinand seama de faptul ca (vezi Capitolul
3.2, Formula (3.9)):
Z
x
F (x) =
f (t) dt
n
X
pk (x xk ).
k=1
51
x1 y1 x1 y2 . . . x1 yn . . . xm yn
p11 p12 . . . p1n . . . pmn
.
52
a+X :
a + x1 a + x2 . . . a + xm
p1
p2
...
pm
,
si la fel
aX :
.
Observatia 2.2.3 Definitia sumei de variabile aleatoare discrete simple se poate extinde
la un numar finit de variabile aleatoare simple. De exemplu, daca
xi
yj
zk
X:
, i = 1, m, Y :
, j = 1, n, Z :
, k = 1, l,
pi
qj
rk
atunci
X +Y +Z :
xi + y j + z k
pijk
, i = 1, m, j = 1, n, k = 1, l.
Exemplul 2.2.5 Probabilitatea extragerii unei bile albe dintr-o urna este p. Din aceasta
urna se fac doua extrageri, punandu-se bila napoi n urna dupa extragere. Se considera
variabilele aleatoare X1 si X2 , prima reprezentand numarul de bile albe obtinute la prima
extragere si a doua numarul de bile albe de la a doua extragere. Sa se scrie tabloul de
repartitie al variabilelor aleatoare discrete simple X1 , X2 , X1 + X2 , X1 X2 .
Daca
X1 :
0 1
q p
,
X2 :
atunci
X1 + X2 :
0 1
q p
, q = 1 p,
0
1
2
2
q 2pq p2
,
deoarece
P ({X1 + X2 = 0}) = P ({X1 = 0, X2 = 0}) = P ({X1 = 0})P ({X2 = 0}) = q 2 ,
P ({X1 + X2 = 1}) = P ({X1 = 1, X2 = 0} {X1 = 0, X2 = 1}) = 2pq,
P ({X1 + X2 = 2}) = P ({X1 = 1, X2 = 1}) = P ({X1 = 1})P ({X2 = 2}) = p2 ,
P ({X1 + X2 = 0}) = P ({X1 = 0, X2 = 0}) = q 2 .
La fel,
X1 X2 :
0
1
2
2pq + q p2
,
deoarece
P ({X1 X2 = 0}) = P ({X1 = 0, X2 = 0} {X1 = 1, X2 = 0) {X1 = 0, X2 = 1})
= 2pq + q 2 ,
P ({X1 X2 = 1}) = P ({X1 = 1, X2 = 1}) = p2 .
53
i=1
n
X
P ({X = xi , Y = yj }) =
j=1
n
X
pij .
j=1
pijk = pij ;
k=1
m
X
i=1
pijk = pjk ;
n
X
= pik ;
j=1
54
sumarea referindu-se la toate valorile ntregi ale lui X, mai mici decat k. Daca notam cu
p(i) = P ({X = i}), q(j) = P ({Y = j}), r(k) = P ({Z = k}), obtinem
r(k) =
k
X
p(i)q(k i) =
i=0
k
X
p(k j)q(j),
j=0
x0 <xi <x,
y 0 <yj <y
{X = xi , Y = yj }) =
55
P ({X = xi , Y = yj }) =
= P(
X
x0 <xi <x
{X = xi })P (
x0 <xi <x
P ({X = xi })
P ({Y = yj }) =
y 0 <yj <y
y 0 <yj <y
Reciproc, presupunem ca evenimentele {x0 < X < x} si {y 0 < Y < y} sunt independente,
oricare ar fi x, x0 , y, y 0 IR. Atunci
{X = xi , Y = yj } = {xi1 < X < xi+1 , yj1 < Y < yj+1 }, i = 1, m, j = 1, n,
unde x0 = y0 = , xn = yn = . Rezulta ca
P ({X = xi , Y = yj }) = P ({xi1 < X < xi+1 , yj1 < Y < yj+1 }) =
= P ({xi1 < X < xi+1 })P ({yj1 < Y < yj+1 }) = P ({X = xi })P ({Y = yj }).
x1 x2 . . . x m
p1 p2 . . . pm
, pi > 0, i = 1, m,
m
X
pi = 1.
(2.4)
i=1
m
X
xi p i .
i=1
Denumirea de medie este ndreptatita daca tinem seama de sensul ei practic. Presupunem
ca am repetat de N ori o experienta care ne-a condus la variabila aleatoare X. Daca
valoarea x1 este luata de n1 ori, valoarea x2 de n2 ori,. . ., valoarea xm de nm ori, unde
n1 + n2 + . . . + nm = N , atunci suma valorilor luate de variabila aleatoare X este n1 x1 +
n2 x2 + . . . + nm xm , iar media aritmetica a valorilor luate de X va fi
n 1 x1 + n 2 x2 + . . . + n m xm
n1
n2
nm
= x1 + x2 + . . . +
xm .
N
N
N
N
n1
reprezinta raportul dintre numarul cazurilor n care s-a luat valoarea x1 si numarul
N
n2
nm
total de experimentari, adica p1 . La fel
= p2 , . . . ,
= pm .
N
N
Media aritmetica a valorilor luate de X poate fi aproximata cu p1 x1 +p2 x2 +. . .+pm xm ,
adica media lui X. Media lui X ne arata la ce valoare putem sa ne asteptam pentru media
aritmetica a unui mare numar de valori ale lui X, obtinute n urma repetarii experientei
date.
Dar
56
X1 + X2 :
0
1
2
2
q 2pq p2
,
are media
M [X1 + X2 ] = 2pq + 2p2 = 2p.
Definitia 2.2.5 Se numeste moment initial de ordin k, k IN , al variabilei aleatoare X
media lui X k . Notam
k = Mk [X] = M [X k ].
Observatia 2.2.7 Momentul initial de ordin 1 al variabilei alearoare X este chiar media
variabilei aleatoare.
Propriet
ati ale mediei.
1. Valoarea medie a unei constante este egala cu constanta,
c
X:
, M [X] = c.
1
2. Daca X este o variabila aleatoare simpla si a IR o constanta, atunci au loc relatiile:
M [a + X] = a + M [X], M [aX] = aM [X],
Intr-adevar, deoarece
a + x1 a + x2 . . . a + xm
p1
p2
...
pm
a+X :
M [a + X] =
m
X
(a + xi )pi = a
i=1
aX :
M [aX] =
m
X
i=1
m
X
pi +
i=1
m
X
i=1
m
X
i=1
,
xi pi = a + M [X];
,
xi pi = aM [X].
57
3. Valoarea medie a unei variabile aleatoare este cuprinsa ntre cea mai mica si cea mai
mare dintre valorile posibile ale variabilei aleatoare. Fie a = min xi si A = max xi .
i
m
m
X
X
M [X] =
xi p i > a
pi = a,
i=1
M [X] =
m
X
xi p i < A
i=1
i=1
m
X
pi = A,
i=1
4. Valoarea medie a unei sume finite de variabile aleatoare este egala cu suma valorilor
medii ale variabilelor aleatoare respective. Fie
x1 x2 . . . x m
y1 y2 . . . yn
X:
, Y :
,
p1 p2 . . . pm
q1 q2 . . . q n
x1 + y1 x1 + y2 . . . xm + yn
X +Y :
.
p11
p12
...
pmn
Atunci
m X
n
X
M [X + Y ] =
(xi + yj )pij =
i=1 j=1
m
X
i=1
xi (
n
X
pij ) +
n
X
j=1
m
X
yj (
j=1
pij ) =
i=1
m
X
xi pi +
i=1
n
X
yj qj = M [X] + M [Y ].
j=1
Demonstratia pentru suma unui numar finit de variabile aleatoare se face prin
inductie.
5. Valoarea medie a unui produs de variabile aleatoare independente este egala cu
produsul mediilor variabilelor considerate.
x1 x2 . . . x m
y1 y2 . . . yn
X:
, Y :
,
p1 p2 . . . pm
q1 q2 . . . q n
x1 y1 x1 y2 . . . xm yn
XY :
,
p11 p12 . . . pmn
M [XY ] =
m X
n
X
xi yj pij .
i=1 j=1
n
X
x1 yj p1 qj +
j=1
=(
n
X
j=1
m
X
i=1
x2 yj p2 qj + . . . +
n
X
j=1
n
X
xi pi )(
yj qj ) = M [X]M [Y ].
j=1
xm yj pm qj =
58
i=1
i=1
59
D [X] =
n
X
pi (xi m)2 =
i=1
n
X
pi xi 2m
n
X
i=1
pi xi + m2 = M [X 2 ] 2m2 + m2 = M [X 2 ] (M [X])2 .
i=1
Aratam ca dispersia unei variabile aleatoare X este, ntr-un anume sens, cea mai buna
valoare care caracterizeaza mprastierea valorilor x1 , x2 , . . . , xn sau, cu alte cuvinte, M [X]
este punctul cel mai potrivit fata de care trebuie sa masuram devierile acestor valori. Acest
lucru rezulta din urmatoarea propozitie.
Propozitia 2.2.4 Dac
a X este o variabila aleatoare care ia valorile x1 , x2 , . . . , xn cu
probabilit
atile p1 , p2 , . . . , pn , iar m este media, atunci
2
D [X] =
n
X
pi (xi m) 6
i=1
n
X
pi (xi x)2 ,
x IR.
i=1
pi (xi x) =
n
X
i=1
pi [(xi m) + (m x)]2 =
60
n
X
pi (xi m) + 2(m x)
i=1
n
X
pi (xi m) + (m x)2 =
i=1
n
X
i=1
Propriet
ati ale dispersiei.
1. Dispersia unei constante este nula deoarece, tinand seama de proprietatile mediei,
D2 [c] = M [c2 ] (M [c])2 = 0.
2. Doua variabile aleatoare care difera printr-o constanta au dispersiile egale.
x1 x2 . . . x n
X:
,
p1 p2 . . . pn
Y =a+X :
a + x1 a + x2 . . . a + xn
p1
p2
...
pn
,
M [Y ] = M [X + a] = M [X] + a,
2
D [Y ] =
n
X
(xi + a M [Y ])2 pi =
i=1
n
X
pi (xi + a M [X] a) =
i=1
n
X
i=1
n
X
pi (axi am)2 =
i=1
=a
n
X
pi a2 (xi m)2 =
i=1
n
X
i=1
61
k
k
X
X
2
D [Y ] = M [Y ] (M [Y ]) = M [(
Xi ) ] (M [
Xi ])2 =
2
i=1
M [X12
X22
+ ... +
Xk2
i=1
i=1
i=1
In particular,
D2 [X Y ] = D2 [X] + D2 [Y ].
De obicei, gradul de mprastiere a valorilor unei variabile aleatoare X se exprima nu prin
dispersie, ci prin abaterea medie patratic
a, notata D[X] si definita prin relatia
p
= D[X] = D2 [X].
Aceasta are avantajul ca se exprima prin aceleasi unitati de masura ca si valorile variabilei
aleatoare X.
Propriet
ati ale abaterii medii p
atratice.
1. D[c] = 0, daca c = const., c IR.
2. D[a + X] = D[X].
3. D[aX] =| a | D[X].
Proprietatile de mai sus rezulta din proprietatile dispersiei.
Teorema 2.2.1 (Inegalitatea lui Cebasev). Fie X o variabila aleatoare care admite medie
si dispersie finite. Atunci, oricare ar fi > 0, are loc inegalitatea
P ({| X m |< }) > 1
D2 [X]
, m = M [X].
2
(2.5)
62
l
X
i=1
pi = 1
n
X
pi .
i=l+1
n
X
i=l+1
pi
63
si deci
n
X
2
>
pi ,
2
i=l+1
n
X
2
1 2 61
pi = P ({|X m|} < ),
i=l+1
1
k2
1
. De exemplu, pentru k = 3 obtinem
k2
1
8
= .
9
9
X:
8
si 1, orice variabila ia valori cuprinse n intervalul
9
0, 2 0, 3 0, 4 0, 5
0, 1 0, 2 0, 3 0, 4
.
D2 [X]
.
0, 22
2.3
1. Repartitia Poisson.
Fie X o variabila aleatoare care ia ca valori numarul de bile albe extrase din n urne
Ui , i = 1, n, care contine fiecare, n proportii diferite, bile albe si negre. Probabilitatea de
a extrage o bila alba din urna Ui este pi , iar o bila neagra este qi = 1 pi . Fie Xi , i = 1, n,
variabilele aleatoare care iau valoarea 1 daca din urna Ui se extrage o bila alba si 0 daca
din aceeasi urna se extrage o bila neagra.
0 1
Xi :
, i = 1, n,
qi pi
64
n
X
Xi ,
i=1
n
n
n
X
X
X
M [X] = M [
Xi ] =
M [Xi ] =
pi ,
i=1
i=1
i=1
n
n
X
X
D [X] = D [
Xi ] =
D2 [Xi ],
2
i=1
i=1
Xi2
0 1
qi pi
,
avem
M [Xi2 ] = pi ,
deci
2
D [Xi ] = pi
p2i
= pi qi si D [X] =
n
X
p i qi .
i=1
2. Repartitia Bernoulli.
Este de fapt repartitia Poisson n care structurile urnelor Ui , i = 1, n, sunt identice,
adica p1 = p2 = . . . = pn = p, q1 = q2 = . . . = qn = q. Variabila aleatoare corespunzatoare
este
0
1
2
...
k
...
n
X:
.
Cn0 p0 q n Cn1 p1 q n1 Cn2 p2 q n2 . . . Cnk pk q nk . . . Cnn pn q 0
Scriem, n acest caz, X : Bi(n, p). Particularizand schema lui Poisson, obtinem
M [X] = np,
D2 [X] = npq.
65
Variabila aleatoare binomiala apare n aplicatii n care sunt doua tipuri de situtii:
realizari/nerealizari, bit corect/eronat, aparat bun/defect etc.
3. Repartitia hipergeometric
a.
Fie X variabila aleatoare care ia ca valori numarul de bile albe care se obtin extragand
n bile dintr-o urna care contine a bile albe si b bile negre (n 6 a+b). Tabloul de repartitie
al variabilei aleatoare X este
0
1
2
...
k
...
min{n, a}
min{n,a} nmin{n,a}
X : Ca0 Cbn Ca1 Cbn1 Ca2 Cbn2
.
Cak Cbnk
Ca
Cb
...
...
n
n
n
n
n
Ca+b
Ca+b
Ca+b
Ca+b
Ca+b
Calculam caracteristicile numerice ale variabilei aleatoare X. Avem
min{a,n}
M [X] =
k=1
a
n
Ca+b
Cak Cbnk
1 X k nk
1 X k1 nk
=
kC
C
=
=
aCa1 Cb =
a b
n
n
n
Ca+b
Ca+b
C
a+b
k
k
n1
Ca+b1
=a
n!(a + b n)!
(a + b 1)!
an
=
.
(a + b)!
(n 1)!(a + b n)!
a+b
M [X ] =
X
k
k(k 1)
k nk
2 Ca Cb
k
n
Ca+b
X
k
Cak Cbnk
a(a 1) n2
1 X
k2 nk
a(a 1)Ca2
Cb =
=
Ca+b2 =
n
n
n
Ca+b
Ca+b k
Ca+b
= a(a 1)
a(a 1)n(n 1)
n!(a + b n)!(a + b 2)!
=
.
(a + b)!(n 2)!(a + b n)!
(a + b)(a + b 1)
De aici rezulta ca
M [X 2 ] =
a(a 1)n(n 1)
an
an (a 1)(n 1)
+
=
(
+ 1),
(a + b)(a + b 1) a + b
a+b
a+b1
D2 [X] =
an(an n + b)
a2 n2
abn(a + b n)
=
.
2
(a + b)(a + b 1) (a + b)
(a + b)2 (a + b 1)
si n cazul schemei bilei nentoarse, variabila aleatoare hipergeometrica poate fi scrisa sub
forma unei sume de variabile aleatoare. Sa notam cu X1 numarul de bile albe obtinute la
prima extragere, cu X2 numarul de bile albe obtinute la a doua extragere etc. Tabloul de
repartitie al variabilei X1 este
0 1
X1 :
.
q p
66
Xk :
0 1
q p
.
Din relatiile
X = X1 + X2 + . . . + Xn
si
M [X1 ] = M [X2 ] = . . . = M [Xn ] = p,
rezulta
M [X] = np.
Ca si n cazul repatitiei lui Bernoulli, X se scrie ca o suma de variabile aleatoare avand
aceeasi repartitie
0 1
.
q p
Deosebirea este esentiala: n cazul repartitiei hipergeometrice, variabilele aleatoare nu
sunt independente. Din aceasta cauza nu putem calcula dispersia variabilei aleatoare X
ca suma dispersiilor variabilelor aleatoare Xi .
Teorema 2.3.1 Daca X este o variabila aleatoare repartizat
a hipergeometric cu parametrii a + b, a, n, pentru care
C k C nk
P ({X = k}) = a nb ,
Ca+b
atunci
Cak Cbnk
= Cnk pk q nk ,
a+b C n
a+b
lim
(2.6)
a
, q = 1 p si deci pentru valori mari ale lui a + b, o variabila aleaa+b
toare repartizat
a hipergeometric poate fi aproximat
a cu o variabila repartizat
a binomiala
a
Bi(n,
).
a+b
unde p =
Demonstratie.
Cak Cbnk
a(a 1) . . . (a k + 1)
=
n
Ca+b
k!
67
b(b 1) . . . (b n + k 1)
n!
=
(n k)!
(a + b) . . . (a + b n + 1)
n!
a(a 1) . . . (a k + 1)b(b 1) . . . (b n + k 1)
=
k!(n k)!
(a + b) . . . (a + b n + 1)
a a1
ak+1 b b1
bn+k1
...
...
a+ba+b
a+b a+ba+b
a+b
1
(a + b)n
k1
= Cnk p(p
) . . . (p
)
(a + b) . . . (a + b n + 1)
a+b
a+b
= Cnk
q(q
1
nk+1
(a + b)n
) . . . (q
)
.
a+b
a+b
(a + b) . . . (a + b n + 1)
k
X
P ({X = l, Y = k l}) =
kl kl mk+l
Cnl pl q nl Cm
p q
=
l=0
l=0
=(
k
X
k
X
kl k n+mk
k
Cnl Cm
)p q
= Cm+n
pk q n+mk .
l=0
2.4
y1
p11
p21
..
.
y2
p12
p22
..
.
...
...
...
..
.
yn
p1n
p2n
..
.
p1
p2.
..
.
xm
pm1
p.1
pm2
p.2
. . . pmn
. . . p.n
pm.
1
68
Y :
yj
p.j
, j = 1, n,
pij = 1,
i=1 j=1
unde
pij = P ({e E | X(e) = xi , Y (e) = yj }).
Am notat
n
X
pik = pi. , i = 1, m,
k=1
m
X
pkj = p.j , j = 1, n,
k=1
n
X
pij = pi. ,
j=1
P ({Y = yj }) =
m
X
pij = p.j .
i=1
P ({X = xi }| {Y = yj })
pij
=
.
P ({Y = yj })
p.j
Analog:
P ({yj |xi }) =
(2.7)
pij
.
pi.
69
XX
XX
P ({X = xi } {Y = yj }) =
xi yj A
xi yj A
P {X = xi }
xi
P ({yj |xi })
(2.8)
yj A
n
X
j=1
La fel
m
X
i=1
Observatie. Putem atasa vectorului aleator (X, Y ) tabloul de repartitie dat de legile de
probabilitate conditionata :
X|{Y = yj } :
x1
p1j
p.j
x2
p2j
p.j
. . . xi
pij
...
p.j
. . . xm
pmj
...
p.j
Y |{X = xi } :
y1 y2 . . . yi
pi1 pi2
pij
...
pi. pi.
pi.
. . . ym
pin
...
pi.
si respectiv
!
,
!
.
Deci avem n legi conditionate ale variabilei aleatoare X corespunzatoare celor n valori
ale variabilei aleatoare Y si respectiv m legi de probabilitate ale variabilei aleatoare Y
conditionate de cele m valori ale lui X.
Exemplul 2.4.1 Numarul bitilor, N , dintr-un mesaj transmisi corect este o variabila
aleatoare care urmeaza o repartitie geometrica cu parametrul p. Presupunem ca mesajul este mpartit n pachete de maximum M biti lungime. Fie Q numarul pachetelor
complete formate cu bitii unui mesaj si R numarul bitilor ramasi n ultimul pachet care
poate fi incomplet. Sa se calculeze probabilitatea ca mesajul transmis sa contina q pachete
complete, iar ultimul pachet sa contina r biti. Notam cu Y variabila aleatoare care ia ca
valori numarul de pachete complete dintr-un mesaj si cu Z variabila aleatoare care ia ca
valori numarul R de biti incompleti din ultimul pachet.
70
Daca mesajul are N biti, atunci numarul pachetelor complete din mesaj este catul
Q a mpartirii lui N la M , iar restul este numarul R al bitilor din ultimul pachet, N =
M Q + R. Variabila aleatoare Y ia valorile 0, 1, 2, . . . iar variabila aleatoare Z ia valorile
0, 1, 2, . . . , M 1. Asociat acestui eveniment consideram variabila aleatoare bidimensionaa
(Y, Z). Probabilitatea ca mesajul corect sa contina q pachete complete si ultimul pachet
sa contina r biti este data de
P ({Y = q, Z = r}) = P ({X = N }) = pqM +r (1 p),
unde N = qM + r. Probabilitatea ca mesajul transmis sa contina q pachete complete
P ({Y = q}) = P ({X {qM, qM + 1, . . . , qM + (M 1)}}) =
M
1
X
1 pM
=
pqM +k (1 p) = (1 p)pqM
= (1 pM )(pM )q , q = 0, 1, . . . .
1
p
k=0
Observam ca variabila aleatoare Y urmeaza o repartitie geometrica cu parametrul pM .
Probabilitatea ca ultimul pachet sa contina r biti este
X
P ({Z = r}) = P ({X {r, M + r, 2M + r, . . .}}) =
(1 p)pqM +r =
q=0
1p r
p , r = 0, 1, 2, . . . , M 1
=
1 pM
1p r
p =
1 pM
1p r
p = P ({Y = q})P ({Z = r}), q = 0, 1, . . . , r = 0, 1, . . . , M 1.
1 pM
2.5
Ai = {e E, X(e) = xi }.
71
pi = 1.
i=1
72
Repartitia Poisson.
Spunem ca variabila aleatoare X este repartizata Poisson cu paramatru , IR+ ,
daca tabloul sau de repartitie este
0
1
2
...
k
...
.
X:
2
k
e 1! e 2! e . . . k! e . . .
Folosim notatia
k
e .
k!
P (k; ) =
Evident P (k; ) > 0 si
X
k
k=0
k!
=e
X
k
k=0
k!
= e e = 1.
X
X
k
k1
k e =
M [X] =
k
e = .
k!
(k 1)!
k=0
k=1
Pentru calculul dispersiei folosim formula D2 [x] = M [x2 ] (M [X])2 .
2
M [X ] =
k
2
k=1
k!
2
X
k=2
2
k X 2 k
(k k) e +
k
=
e =
k!
k!
k=2
k=1
k2
k2
e + = 2 +
(k 2)!
D [X] = 2 + = .
k
X
P ({X1 = k1 , X2 = k k1 }) =
k1 =0
k
X
k1 =0
k
X
k1
1
k1
k1 !
e1
1
kk
2
e2 =
(k k1 )!
k
e(1 +2 )
e(1 +2 ) X
k!
k11 2kk1 =
(1 + 2 )k .
=
k!
k
k!
1 !(k k1 )!
k =0
1
73
k
e ,
k!
unde np = = const.
Demonstratie.
n(n 1) . . . (n k + 1) k
( ) (1 )nk =
n
k!
n
n
74
k
n(n 1) . . . (n k + 1)
nk k
lim
(1
)
= e .
k! n
nk
n
k!
Pentru calculul probabilitatilor P (k, ) s-au ntocmit tabele pentru cuprins ntre
0, 1, . . . , 20. Aceste tabele dau probabilitatile ca evenimentele sa se realizeze de cel putin
m ori.
X
k
e .
P ({X > m}) =
k!
k=m
Teorema 2.5.1 ne permite sa aproximam probabilitatile unei repartitii binomiale.
Exemplul 2.5.1 Probabilitatea de eroare la transmiterea unui bit printr-o linie de comunicatie
este de 103 . Sa se calculeze probabilitatea ca la transmiterea unui bloc de 1000 de biti
sa avem cinci sau mai mult de cinci erori.
Transmiterea fiecarui bit reprezinta o experienta Bernoulli care se realizeaza daca s-a
produs o eroare la transmiterea bitului. Probabilitatea ca sa se produca k erori n 1000
de transmisii este data de probabilitatea calculata cu legea binomiala cu n = 1000 si
p = 103 . Legea Poisson cu parametrul = np = 1000 103 = 1 aproximeaza legea
binomiala. Astfel
P [N > 5] = 1 P [N < 5] = 1
n
1
1
1
1o
= 0, 00366
e = 1 e1 1 + + + +
k!
1! 2! 3! 4!
4
X
k
k=0
Exemplul 2.5.2 O fabrica produce becuri si da 2 % rebut. Sa se aproximeze probabilitatea ca ntr-o cutie de 100 de becuri sa obtinem cel mult trei becuri defecte?
Presupunand indepependenta, avem de-a face cu o variabila aleatoare repatizata binomial cu p = 0, 02 si n = 100. Daca dorim sa calculam probabilitatea cu ajutorul schemei
binomiale, dupa calcule laborioase obtinem
3
X
k
C100
(0, 2)k (0, 98)100k = 0, 859.
k=0
k!
= 0, 857.
75
wt k
wt nk
(wt)k wt
) (1
)
e
pentru n cu = wt.
n
n
k!
Repartitia geometric
a.
Spre deosebire de variabila aleatoare binomiala care apare cand fixam un numar de
repetari ale unei experiente care poate consta n realizarea sau nerealizarea evenimentului
A si numaram numarul de realizari ale acestuia, n cazul variabilei geometrice numaram
numarul m de efectuari ale experientei (experiente de tip Bernoulli, adica independente
si repetate n aceleasi conditii) pana la prima realizare a evenimentului A. In acest caz
variabila aleatoare X ia valorile X = k, k = 1, 2, . . . , m, . . . si avem
P ({X = k}) = pq k1 , q = 1 p, k = 1, 2, 3, . . . ,
unde P (A) = p este probabilitatea de realizare a evenimentului A.
In acest caz
F (k) = P ({X < k}) =
k1
X
pq j1 = p
k2
X
pq j = p
j 0 =0
j=1
1 g k1
= 1 q k1 ,
1q
unde q = 1 p.
Uneori ne intereseaza M 0 = M 1, numarul de repetari ale experientei pana la reusita
ei:
P [M 0 = k] = P [M = k + 1] = (1 p)k p, k = 0, 1, 2, . . .
Variabila aleatoare X va lua valoarea 1 daca evenimentul se realizeaza n cadrul primei
experiente si deci P ({X = 1}) = p; X va lua valoarea 2 daca evenimentul A nu s-a realizat
la prima experienta, dar se realizeaza la a doua experienta, P ({X = 2}) = P (A A) =
(A) = (1p)p = qp. Analog, P ({X = 3}) = P (A
AA)
(A)P
(A) = q 2 p
P (A)P
= P (A)P
etc. Avem, evident
P ({X = k}) =
k=1
pq k1 = p
k=1
1
= 1.
1q
kpq
k=1
=p
k1
=p
X
k=1
kq
k1
d X k
q )=
=p (
dq k=1
d
q
p
1
[
]=
=
,
dq 1 q
(1 q)2
p
76
M [X ] =
k pq
k1
=p
k=1
=p
2 k1
k q
k=1
d X k
kq =
=p
dq k=1
d
q
2p
2p
[
]
=
p
=
,
dq (1 q)2
p3
p2
si deci
D2 [X] =
2p
1
q
2 = 2.
2
p
p
p
X
k=1
kpq k1 =
1
= 2, 5
p
Aceasta nu este o valoare pe care o poate lua N . Afirmatia N este egala cu 2.5 n medie
nu are sens. Sensul afirmatiei este ca media aritmetica a unui numar mare de experiente
va fi aproape de 2.5.
Repartitia binomial
a cu exponent negativ.
Se spune ca variabila aleatoare X are repartitie binomiala cu exponent negativ, cu
parametrii m si p, (m = 1, 2, . . . , 0 < p < 1), daca X poate lua valorile m, m + 1, m + 2, . . .
iar
m1 m km
p q
, q = 1 p.
P ({X = k}) = Ck1
Acesta repartitie apare n modele de tipul urmator: sa presupunem ca s-a efectuat
un numar de observatii independente, n cursul fiecarei observatii evenimentul A (de
exemplu nefunctionarea unui subansamblu al unui aparat) poate sa se produca cu probabilitatea p. Observatiile continua pana cand evenimentul se produce de m ori si se cauta
probabilitatea pentru ca aceasta sa se produca exact n decursul a k observatii (k > m).
77
Numele acestei repartitii provine din faptul ca probabilitatea cautata este coeficient
n dezvoltarea n serie a lui
X
X
1 q
m1 km
m1 m km
( )m = pm (1 q)m = pm
Ck1
q
=
Ck1
p q
.
p p
k=m
k=m
Observam ca definirea acestei variabile aleatoare este corecta deoarece P ({X = k}) >
X
m1 m km
0 si
Ck1
p q
= 1.
k=m
m1 km
Ck1
x
si deci
k=m
X
xm
C m1 xk daca |x| < 1,
=
(1 x)m k=m k1
m1 k1
Ck1
x
=
k=m
(2.9)
d
xm
mxm1
(
)
=
daca |x| < 1,
dx (1 x)m
(1 x)m+1
adica
M [X] =
m1 m km
kCk1
p q
m m+1
=p q
m1 k1
kCk1
q
= pm q m+1
k=m
k=m
M [X] =
mq m1
m
= ,
m+1
p
p
m
.
p
M [X ] =
m1 m km
Ck1
p q
m m+1
=p q
k=m
k 2 q k1 .
k=m
X
k=m
m1 k1
x
=
k 2 Ck1
d
mxm
mxm1 (m + x)
[
]
=
,
dx (1 x)m+1
(1 x)m+2
deci
M [X 2 ] =
m(m + q)
,
p2
iar
D2 [X] =
mq
.
p2
78
2.6
Functia generatoare
In problemele n care apar variabile aleatoare nenegative se utilizeaa functia generatoare a variabilei aleatoare X, GX (z) care se defineste prin relatia
GX (z) =
pk z k ,
(2.10)
k=0
|z| 6 1. Pentru |z| < 1 seria de puteri se poate deriva terman cu termen si obtinem:
(j)
GX (z)
n(n 1) . . . (n j + 1)pj z
(nk)
k=j
k=j
1 (j)
G (0).
j! X
X
k
k=0
k!
z =e
X
(z)k
k=0
k!
= e ez = e(z1) .
2.7
79
Probleme propuse
X:
0
1
2
3
4
0, 15 0, 45 0, 20 0, 15 0, 05
.
Sa secalculeze:
a) valoarea medie a variabilei aleatoare X si momentul initial de ordin 2;
b) dispersia;
c) momentul centrat de ordin 3.
Indicatie.
5
5
X
X
2
x2i pi = 3, 4.
xi pi = 1, 5, M [X ] =
a) M [X] =
1
3
(X m) :
(1, 5)3 (0, 5)3 (0, 5)3 (1, 5)3 (2, 5)3
0, 15
0, 45
0, 20
0, 15
0, 05
.
80
pk
(n k + 1)p
(n + 1)p k
=
=1+
pk1
kq
kq
b. Sa se atate ca a. implica:(1) P ({X = k}) este maxima pentru kmax = [(n+1)p], unde
[x] este partea ntreaga a lui x; (2) daca (n + 1)p este un ntreg, atunci maximum
este atins n kmax si kmax 1.
Indicatie. b. Impunem conditiile pk /pk1 > 1, pk+1 /pk < 1.
Problema 2.4 Fie X o variabila aleatoare repartizata geometric. Sa se calculeze
P ({X > k}) si P ({Xeste un numar par}).
Indicatie. P ({X > k}) = 1 P ({X < k}) P ({X = k}) = 1 (1 q k1 )pq k1 = q k ;
X
X
X
1
p
P
{X = 2k} =
=
.
P ({X = 2k}) =
pq 2k1 =
2
1
q
1
+
q
k=1
k=1
k=1
Problema 2.5 Sa se arate ca variabila aleatoare geometrica are proprietatea de pierdere a memoriei
P ({X > k + j|X > j}) = P ({X > k}), j, k > 0
In ce sens are loc pierdera memoriei?
P (X > k + j) (X > j)
Indicatie. P ({X > k + j}|{X > j}) =
= q k . Pierderea
P ({X > j})
memoriei are loc n sensul ca probabilitatea realizarii unui eveniment, legat de o experienta Bernoulli, dupa k + j 1 nerealizari, stiind ca nu s-a realizat dupa j efectuari ale
experientei, depinde numai de k.
pk
(n k + 1)p
(n + 1)p k
=
=1+
pk1
kq
kq
b. Sa se atate ca a. implica:(1) P ({X = k}) este maxima pentru kmax = [(n+1)p], unde
[x] este partea ntreaga a lui x; (2) daca (n + 1)p este un ntreg, atunci maximum
este atins n kmax si kmax 1.
Indicatie. b. Impunem conditiile pk /pk1 > 1, pk+1 /pk < 1.
Problema 2.4 Fie X o variabila aleatoare repartizata geometric. Sa se calculeze
P ({X > k}) si P ({Xeste un numar par}).
Indicatie. P ({X > k}) = 1 P ({X < k}) P ({X = k}) = 1 (1 q k1 )pq k1 = q k ;
X
X
X
1
p
P
=
.
{X = 2k} =
P ({X = 2k}) =
pq 2k1 =
2
1q
1+q
k=1
k=1
k=1
81
1
0
1/6 0
0 1/3
1/6 0
1
1/6
0
1/6
X \Y
-1
0
1
1
0
1/9 1/9
1/9 1/9
1/9 1/9
1
1/9
1/9
1/9
X \Y
-1
0
1
1
0
0
0
0 1/3
1/3 0
1
1/3
0
0
X
k=0
82
Defectele care apar n fiecare moment pot fi considerate ca experiente Bernoulli care se
realizeaza cu succes daca defectul este n regiunea R. Daca numarul total de defecte este
X = k, atunci numarul de defecte care apar n regiunea R urmeaza o repartitie Bernoulli
de parametrii k si p:
P ({Y = j|X = k}) = Ckj pj (1 p)kj , 0 6 j 6 k.
Atunci
P ({Y = j}) =
X
k=j
k!
k
pj (1 p)kj e =
j!(k j)!
k!
j)!
j!
j!
k=j
Capitolul 3
Variabile aleatoare continue
3.1
{e E|X(e) < x} K.
(3.1)
Pentru simplificare vom nota {X < x} = {e E|X(e) < x}. Aceasta conditie are loc
totdeauna n cazul unei variabile aleatoare discrete (alegand eventual un camp borelian
convenabil). Din definitie si din proprietatile lui K (de a fi nchis la complementara,
reuniuni si intersectii numarabile), fiecare din multimile
{X 6 x}, {X > x}, {X > x}, {a 6 X < b},
{a < X 6 b}, {a < X < b}, {a 6 X 6 b}, x, a, b IR,
(3.2)
apartine lui K, daca (3.1) are loc si reciproc, apartenenta la K a oricarei multimi (3.2)
implica (3.1). Pentru exemplificare, sa demonstram ca pentru orice x IR, urmatoarele
doua afirmatii sunt echivalente:
i. {X < x} K;
ii.{X 6 x} K.
Sa demonstram (i) (ii). Putem scrie
{X 6 x} =
{X < x + 1/n}.
n=1
Din (i) avem {X < x + 1/n} K si din faptul ca familia K este nchisa la intersectii
numarabile, rezulta ca {X 6 x} K.
Pentru implicatia (ii) (i), observam ca
{X < x} =
{X 6 x 1/n},
n=1
83
84
X
{X < 0} {X > 1/x}, daca x > 0
Propozitia 3.1.2 Dac
a X si Y sunt variabile aleatoare, atunci:
1. X Y ;
2. X + Y ;
3. XY ;
4. X/Y ;
5. max(X, Y );
85
6. min(X, Y );
sunt variabile aleatoare.
Demonstratie. Toate afirmatiile 2-6, decurg din prima. Sa demonstram 1. Folosind
numarabilitatea multimii Q si faptul ca ntre doua numere reale exista cel putin un numar
rational putem scrie:
!
[
{X Y < x} = {X < Y + x} =
({X < rn } {rn x < Y }) K,
n=1
unde rn Q.
Pentru 2, observam ca X + Y = X (Y ), iar pentru XY , afirmatia rezulta din
1
identitatea XY = [(X + Y )2 (X Y )2 ].
4
4 este o consecinta a afirmatiei precedente si a Propozitiei 3.1.1.
Ultimele doua afirmatii rezulta din egalitatile:
1
max(X, Y ) = (X + Y + |X Y |),
2
1
min(X, Y ) = (X + Y |X Y |).
2
Definitia 3.1.2 {Xi }, i I este o familie de variabile aleatoare independente, daca
pentru orice J I, J finit
a si orice familie {Bj }, j J de multimi boreliene (vezi
Exemplul 3.1.1) are loc:
\
Y
P ({ Xj1 (Bj )}) =
P ({Xj1 (Bj )}).
jJ
jJ
jJ
jJ
Deoarece fj este o functie continua, contraimaginea unei multimi boreliene este de asemenea boreliana, iar afirmatia rezulta din faptul ca Xj este variabila aleatoare.
Definitia 3.1.3 Functia F : IR [0, 1], definita prin
F (x) = P ({X < x})
se numeste functia de repartitie a variabilei aleatoare X.
(3.3)
86
4. lim F (x) = 1;
x+
Demonstratie.
1. Observam ca {X < x2 } = {X < x1 } {x1 6 X < x2 }, iar cele doua evenimente
sunt incompatibile. Aplicand probabilitatea peste ultima relatie, gasim
F (x2 ) = P ({X < x2 }) = F (x1 ) + P ({x1 6 X < x2 }) > F (x1 ),
deoarece din definitie, P ({x1 6 X < x2 }) > 0.
2. Fie xn un sir crescator la x. Avem:
{X < x} = {X < x1 } (
n=1
X
(F (xn+1 ) F (xn ))
n=1
deci seria precedenta este convergenta si are ca suma limita sirului de sume partiale.
F (x) = F (x1 ) + lim (F (x2 ) F (x1 ) + F (x3 ) F (x2 ) + . . . + F (xn+1 ) F (xn )) =
n
n=1
X
n=1
87
4. Se constata ca
{X 6 } = {X < x1 } (
n=1
unde xn este un sir crescator la +. Procedand ca mai sus, gasim 1 = lim F (xn ).
n
iI
n
X
i=1
(bi ai ) 6
n
X
i=1
(bi ai ) +
n1
X
(ai+1 bi ) = bn a1 6 1 0 = 1.
i=1
Fie K cel mai mic corp borelian (se poate arata ca exista), care contine D, pe care l
notam K; aplicatia P0 poate fi prelungita la o probabilitate pe K, astfel ncat sa aiba loc
D D, P (D) = P0 (D).
88
n=1
89
q-cvantilele sunt unic determinate daca F este continua si strict crescatoare ca solutii ale
ecuatiei
i
F (ci ) = , i = 1 . . . q 1.
q
Pentru q = 2 se obtine mediana, pe care o vom nota me si care se caracterizeaza prin
1
1
F (me ) 6 , F (me + 0) > ,
2
2
(3.4)
1
F (me ) = .
2
Pentru q = 4 se obtin cvartilele, pentru q = 10,decilele etc.
Functia de repartitie conditionat
a.
In campul de probabiliatate {E, K, P } consideram A K, cu proprietatea P (A) 6= 0.
Reamintim ca n Capitolul 1.2 s-a definit notiunea de probabilitate conditionata prin
formula
P (A B)
, B K.
P (B|A) = PA (B) =
P (A)
Definitia 3.1.5 Data o variabila aleatoare X, numim functie de repartitie conditionata
de evenimentul A, functia data de
F (x|A) = P ({X < x}|A) =
P ({X < x} A)
.
P (A)
(3.5)
F (x)
P ({X < x} {X < a})
, daca x 6 a
=
F (x|A) =
F (a)
90
F (x)
,
F (x|{X < a}) =
F (a)
1,
daca x 6 a
(3.6)
daca x > a.
0,
daca x 6 a,
F (x) F (a)
, daca a < x 6 b,
F (x|{a 6 X < b}) =
(3.7)
F (b) F (a)
1,
daca x > b.
Demonstram urmatoarea formula, care se dovedeste utila n aplicatii. In ipotezele precedente are loc
P (A|{a 6 X < b}) =
(3.8)
P (A {a 6 X < b})
=
P ({a 6 X < b})
3.2
91
Rb
a
f (x)dx.
Daca n relatia (3.9) trecem la limita pentru x tinzand la si folosim faptul ca lim F (x) = 1,
x
deducem
Z
+
f (t)dt = 1.
(3.10)
f (x)dt 6
f (t)dt = 1
F (x) =
f (t)dt,
satisface conditiile propozitiei (3.1.4), deci este o functie de repartitie, daca tinem cont
de observatia facuta dupa aceasta propozitie.
Repartitia uniform
a. Vom nota cu X : U (a, b) o variabila aleatoare uniform repartizata pe intervalul (a, b), a, b IR, daca densitatea de probabilitate este data de
(
f (x) =
1
, daca a 6 x 6 b
ba
0,
n rest.
Se constata imediat ca este ndeplinita conditia (3.10). Functia de repartitie este data de
0,
x
xa
,
F (x) =
f (t)dt =
ba
1,
Z
daca x 6 a,
daca a < x 6 b,
daca x > b.
1,
0,
92
Repartitia normal
a. Variabila aleatoare X este distribuita normal cu parametrii
m IR, > 0 si vom nota X : N (m, 2 ), daca are densitatea de probabilitate
(xm)2
1
2 2 ,
f (x) =
e
x IR.
(3.11)
2
Observam ca f (x) > 0. Pentru calculul integralei din conditia (3.10) facem schimbarea
xm
de variabila y =
si obtinem
Z
Z
Z
(xm)2
y2
1
1
2
2
dx =
f (x)dx =
e
e 2 dy = 1.
2
2
(3.12)
f (x) =
e 2.
2
Graficul este cunoscut sub numele de clopotul lui Gauss. Se constata ca acesta este
1
simetric fata de dreapta x = m, pentru x = m functia f are maxim egal cu f (m) = 2
,
iar punctele m sunt puncte de inflexiune. Pentru constant si m variabil, graficul se
transleaza corespunzator. Daca m este constant, iar variabil se constata ca punctul de
maxim variaza invers proportional n raport cu . In Figura 3.4 se poate constata cum
variaza densitatea n functie de . Functia de repartitie F are graficul dat de Figura 3.5
si se poate determina numeric, daca se cunosc valorile functiei lui Laplace , care se
defineste prin
Z z
x2
1
e 2 dx, z IR.
(z) =
2 0
Se verifica usor ca (z) = (z) , ceea ce permite tabelarea functiei doar pentru valori
pozitive. Mai observam ca are loc relatia
Z z
x2
1
1
lim
e 2 dx = .
(3.13)
z
2
2 0
Sa exprimam functia de repartitie cu ajutorul functiei lui Laplace. In integrala F (x) =
Rx
tm
= u si obtinem
f
(t)dt
facem
schimbarea
de
variabil
a
1
F (x) =
2
1
= (
2
u
e 2 du +
xm
u
e 2 du =
xm
u2
e 2 du) =
1
xm
+ (
).
2
xm
1
+ (
).
2
(3.14)
93
Din (3.14), folosind faptul ca P ({a 6 X < b}) = F (b) F (a), deducem
P ({a 6 X < b}) = (
am
bm
) (
).
1
(r1 + . . . rn ).
n
g 0 (r)
=
g(r)
n
X
f (r r1 ) . . . f (r ri1 )f 0 (r ri )f (r ri+1 ) . . . f (r rn )
i=1
f (r r1 ) . . . f (r rn )
94
n
X
f 0 (r ri )
i=1
f (r ri )
n
X
(
r rk ) = 0. Putem
k=1
atunci scrie
n 0
n
n
X
X
g 0 (r) X f 0 (r rk )
f (r rk )
0=
=
c
(r rk ) =
c(r rk ) .
g(r)
f (r rk )
f (r rk )
k=1
k=1
k=1
Punem conditia ca termenul general al sumei sa se anuleze. Aceasta conduce la ecuatia
diferentiala
f 0 (x)
= cx
f (x)
x2
cu solutia f (x) = ke 2 . Sa determinam constantele k si c, astfel ca f (x) sa fie o densitate
1
de probabilitate. Punand conditia (3.10), gasim c < 0, k > 0. Daca notam 2 = ,
c
1
gasim k = si
2
x2
1
2
2
f (x) =
.
e
2
c
t
t
1
e 2 dt
e 2 dt .
P ({ < X < }) = ( ) ( ) =
2
0
0
Anulam derivata n raport cu a integralei cu parametru si gasim
2
2
2
2
1
2
2
e 2 ( 2 ) e 2 ( 2 ) = 0.
2
2
Deducem
s
=
2 2
.
2(ln ln ||)
In practica apar des situatii n care o variabila aleatoare continua este suma dintre
o variabila aleatoare discreta si o variabila aleatoare continua. Ca aplicatie a formulei
probabilitatii totale se poate deduce densitatea de probabilitate.
95
n
X
i=1
n
X
i=1
n
X
pi fY (x xi ).
i=1
f (x)
, daca x 6 a,
f (x|A) =
F (a)
0,
daca x > a.
2. Daca A = {a 6 X < b} prin derivarea relatiei (3.7) gasim
f (x)
, daca a < x 6 b,
f (x|{a 6 X < b} =
F (b) F (a)
0,
n rest.
(3.15)
(3.16)
96
(x m)2
2 2 , daca |x m| 6 k
e
22(k)
f (x|{|X m| 6 k}) =
.
0,
n rest
Exemplul 3.2.8 Fie T variabila aleatoare care da timpul de functionare pana la prima
defectare. Sa determinam F (x|{T > t}) si f (x|{T > t}). Observam ca P ({T > t}) =
1 F (t), probabilitate care va fi definita ca functie de fiabilitate n Capitolul 3.7. Gasim
F (x) F (t)
, daca x > t,
1 F (t)
F (x|{T > t}) =
0,
daca x < t.
f (x|{T > t}) =
f (x)
=Z
1 F (t)
f (x)
+
, x > t.
f (x)dx
t
Formula probabilit
atii totale. Formula lui Bayes.
Vom da versiunea continua a formulelor prezentate n Capitolul 1.6. Consideram
evenimentul {X = x} unde X este o variabila aleatoare continua, deci admite functie de
repartitie continua. Atunci avem P ({X = x}) = 0. In unele situatii putem totusi defini
P (A|{X = x}), n sensul existentei urmatoarei limite
P (A|{X = x}) = lim P (A|{x 6 X < x + x}) =
x0
= lim
x0
f (x|A)P (A)
(F (x + x|A) F (x|A))P (A)
=
.
F (x + x) F (x)
f (x)
f (x|A)P (A)dx =
97
3.3
n
\
{Xi < xi }
i=1
xk
98
n
X
pi +
i=1
n
X
pij
i<j
n
X
(3.18)
i<j<k
n F (x1 , . . . , xn )
.
x1 . . . xn
an
99
...
fX (x) =
f (u, y)du.
100
, daca (x, y) D,
f (x, y) =
(b a)(d c)
0,
n rest.
Sa determinam densitatile marginale.
Z
fX (x) =
f (x, v)dv =
si analog,
1
dv =
(b a)(d c)
fY (y) =
1
, x [a, b]
ba
0,
n rest
1
, x [c, d],
dc
0,
n rest
x1 = 1 (y1 , . . . , yn )
..
(x1 , . . . , xn ) D, (y1 , . . . , yn )
.
x = (y , . . . , y )
n
n 1
n
si care satisface conditiile:
1
1. 1 , . . . , n sunt functii reale de clas
a C ();
1
1
.
.
.
y1
y
n
D(1 , . . . , n ) .
.
.. 6= 0 pe .
2. J(y1 , . . . , yn ) =
= ..
.
.
.
D(y1 , . . . , yn )
n
n
.
.
.
y
yn
1
In aceste conditii, compunerea dintre (X1 , . . . , Xn ) si inversa transformarii este tot
o variabila aleatoare, pe care o notam (Y1 , . . . , Yn ). Presupunem ca ambele variabile
aleatoare au densitati de probabilitate, pe care le notamfX1 ...Xn si fY1 ...Yn . Folosind schimbarea de variabile n integrala multipla, obtinem
Z
Z
...
fX1 ...Xn (x1 , . . . , xn )dx1 . . . dxn =
Z
=
Z
...
(3.21)
101
(3.22)
(
1
e
2
yb
m)2
a
2 2
1
=
|a|
(y(am+b))2
1
2a2 2
=
e
.
2|a|
deci Y este o variabila repartizata N (am + b, a2 2 ). Deci prin transformarea liniara a unei
variabile aleatoare normale se obtine tot o variabila normala. De aici se deduce imediat
ca, daca X : N (m, 2 )
X m
: N (0, 1).
FY0 (y)
FX0 (ln y)
(ln ym)2
1
2 2
=
e
.
2
102
1
x = 1 (u, v) = (u + v)
2
1
y = 2 (u, v) = (u v)
2
iar iacobianul J(u, v) = 12 ; reprezentam n Figurile 3.7 si 3.8 domeniile D si . Din
ipoteza de independenta rezulta
fXY (x, y) = fX (x)fY (y).
Deci fU V (u, v) = 1| 1/2|, daca (u, v) si 0 n rest. Densitatea marginala este data
de
Z
fU (u) =
fU V (u, v)dv.
daca 0 6 u 6 1,
u,
2 u, daca 1 6 u 6 2,
fU (u) =
0,
n rest.
si analog
v+1
2 ,
v + 1
fV (v) =
,
0, 2
daca 1 6 v 6 0,
daca 0 6 v 6 1,
n rest.
Exemplul 3.3.6 Un dispozitiv are doua componete ale caror durate de viata sunt variabile aleatoare independente, notate X si Y , cu densitatile
( 1
1
, daca y > 1,
, daca x > 1,
2
fX (x) =
fY (y) =
y2
x
0,
0,
n rest
n rest.
103
U = XY
V =X
definita pe domeniul D cu inversa
x=v
2
y = uv
1
,
x2 y 2
2u
. Din conditia de independenta
v
daca x, y > 1,
n rest,
0,
iar
fU V (u, v) =
2
.
u3 v
fU (u) =
u2
fU V (u, v)dv =
1
2
ln u
dv = 4 3 , u > 1.
3
uv
u
b, daca x 6 b,
x,
daca b < x 6 b,
g(x) =
b,
daca x > b.
Sa determinam functia de repartitie a variabilei aleatoare Y = g(X), unde X este o
variabila aleatoare cu functia de repartitie FX .
Daca y 6 b evenimentul g(X) < y nu se realizeaza pentru nici un x, deci FY (y) = 0.
Daca b < y 6 b, FY (y) = FX (y).
Daca b < y, FY (y) = 1.
Exemplul 3.3.8 Repartitia normala n-dimensionala. Consideram functia definita de
104
x1
X = ... , M =
xn
m1
.. .
.
mn
n
X
i yi2 ,
i=1
unde i sunt valorile proprii ale lui A, care n cazul nostru sunt strict pozitive. Dupa cum
stim det A = 1 . . . n . Sa verificam satisfacerea conditiei (3.19). Facem schimbarea de
variabile X = HY si observam ca determinantul functional
D(x1 , . . . , xn )
D(y1 , . . . , yn ) = det H = 1
deoarece H este o matrice ortogonala. Avem atunci
Z
n
X
12
...
aij xi xj
dx1 . . . dxn =
i=1
IRn
Z
=
n
X
12
...
i yi2
det Hdy1 . . . dyn =
i=1
IRn
i=1
n Z
Y
12 i yi2
zi
i
1
dyi =
i
e 2 i yi dyi .
si gasim
z2
2i
2
dzi = .
i
(2) 2
2
(2) 2
=
.
=
i
1 . . . l n
det A
Daca revenim la cazul general, prin substitutia X M = Y , situatia se reduce la satisfacerea conditiei m1 = . . . = mn = 0.
Semnificatia coeficientilor matricei A si unele proprietati vor fi studiate n Capitolul 3.5.
Vom da cazuri particulare ale legii normale.
Variabila aleatoare normal
a bidimensional
a.
105
(ymy )
(xmx )2
+
2
2
x
y
(3.25)
P ({(X, Y ) Dk }) = 1 e 2
(3.26)
Aceasta rezulta imediat daca facem n integrala dubla schimbarea de variabile de forma
x mx = x cos
0 < 6 k, [0, 2).
y my = y sin
Dupa efectuarea calculelor obtinem
Z Z
Z 2 Z k
2
x y
d
e 2 d,
f (x, y)dxdy =
2x y 0
Dk
0
de unde (3.26).
Exemplul 3.3.9 Repartitia Rayleigh Daca x = y = si mx = my = 0, distanta R
a unui punct aleator (X, Y ) la origine are repartitia Rayleigh. Inlocuind n (3.25),
densitatea de probabilitate are forma
f (x, y) =
2
1 12 x2 +y
2 .
e
2 2
r > 0 [0, 2)
r r22
e 2 ,
2 2
r r22
e 2 .
2
106
12
(2) 2 x y z
(ymy )2
(xmx )2
(zmz )2
+
+
2
2
2
x
y
z
La fel ca n cazul bidimensional probabilitatea ca variabila (X, Y, Z) sa ia valori ntrun elipsoid Dk , pe a carui suprafata densitatea ia valori constante, elipsoid de egal
a
probabilitate, este
r
2 k2
P ({(X, Y, Z) DK }) = 2(k)
ke 2 .
x=v
y =uv
fX+Y (x) =
1
f (y)f (x y)dy =
ba
xb
f (x y)dy.
xa
107
0,
x2a ,
(ba)2
fX+Y =
2bx
2,
(ba)
0,
x < 2a
2a > x < a + b
.
a + b 6 x < 2b
x > 2b
cu inversa
u=xy
v=x
x=v
,
y =vu
fU (u) =
fX (v)fY (v u)dv.
cu inversa
u = xy
,
v=x
x=v
y = uv
Z
fU (u) =
u dv
fXY (v, ) ,
v |v|
(3.29)
108
fU (u) =
fX (v)fV
u dv
|v|
(3.30)
C
atul a dou
a variabile aleatoare continue.
Consideram transformarea
cu inversa
u = xy
v=y
x = uv
y=v
fU (u) =
fX (uv)fY (v)|v|dv.
(3.31)
Probabilit
ati si functii de repartitie conditionate.
Daca X, Y sunt variabile aleatoare discrete, notiunile de probabilitati conditionate
au fost definite prin n Capitolul 2.4. Fie X este o variabila aleatoare discreta, iar Y o
variabila aleatoare continua; definim functia de repartitie a lui Y conditionata de X prin
FY (y|xk ) =
P ({Y < y, X = xk })
P ({X = xk })
daca P ({X = xk }) > 0. Daca functia de repartitie conditionata este derivabila, definim
densitatea de probabilitate prin formula
fY (y|xk ) =
d
FY (y|xk ).
dy
fY (y|xk )dy.
A
109
Exemplul 3.3.11 Intr-un canal de comunicatie intrarea este o variabila X, care poate
lua valorile +1 volt , 1 volt cu aceeasi probabilitate. Iesirea Y = X + N unde N este
zgomotul ce poate fi considerat o variabila aleatoare repartizata uniform pe intervalul
(2, 2). Sa determinam probabilitatea P ({X = 1, Y < 0}).
Folosind formula probabilitatilor conditionate, avem
P ({X = 1, Y < y}) = P ({Y < y}|{X = 1})P ({X = 1}) = FY (y|1)P ({X = 1}).
Functia de repartitie a lui Y conditionata de {X = 1} este
FY (y|1) = P ({N + 1 < y}) = P ({N < y 1}) = FN (y 1),
unde FN este functia de repartitie a variabilei
0,
x+2
,
FN (x) =
4
1,
R y R x+h
R x+h
x
fX (x0 )dx0
fXY (x, y)
.
fX (x)
Rx
fX (x|y) =
fXY (x, y)
.
fY (y)
(3.32)
110
fX (x) =
si
fY (y) =
2ex ey
= e(xy) , y 6 x
2e2y
2ex ey
ey
fY (y|x) = x
=
, 0 6 y 6 x.
2e (1 ex )
1 ex
Formula probabilitatii totale si formula lui Bayes se pot generaliza si n acest caz. Relatia
(3.32) poate fi scrisa sub forma
fXY (x, y) = fY (y|x)fX (x)
si aplicand definitia probabilitatii marginale, obtinem formula probabilit
atii totale:
Z +
fY (y|x)fX (x)dx
fY (y) =
fX (x|y)fY (y)
.
fX (x)
FXY (x, y)
,
FX (x)
f (x0 , y)dx0
XY
.
R + R x
f (x0 , y 0 )dx0 dy 0
XY
Daca evenimentul care conditioneaza este {x1 6 X < x2 } si FX (x1 ) 6= FX (x2 ) avem
FXY (x2 , y) FXY (x1 , y)
,
FX (x2 ) FX (x1 )
R x2
fXY (x, y)dx
fY (y|{x1 6 X < x2 }) = x1
.
FX (x2 ) FX (x1 )
FY (y|{x1 6 X < x2 }) =
3.4
111
Medii si momente.
Definitia 3.4.1 Daca X este o variabila aleatoare avand functia de repartitie F (x), numim medie, numarul dat de
Z
M [X] =
xdF (x).
(3.33)
Integrala din (3.33) este de tip Riemann-Stieltjes (vezi Anexa 1). Daca X are densitate de
probabilitate continua f (x), atunci integrala din definitie se reduce la o integrala Riemann
si avem
Z
M [X] =
xf (x)dx
(3.34)
1
, x IR
(1 + x2 )
nu are medie, deoarece integrala (3.34) este divergenta. Reamintim ca o variabila aleatoare
este continua, daca are functia de repartitie continua. Mai general, daca F are c1 , . . . , cn
puncte de discontinuitate (evident de prima speta), media se obtine exprimand integrala
Stieltjes (vezi Anexa 1) ca o suma dintre o integrala Riemann si o suma de salturi.
Z
M [X] =
f (x)dF (x) =
xf (x)dx +
n
X
k=1
Exemplul 3.4.1 Sa determinam media variabilei aleatoare repartizate normal N (m, 2).
1
2
(m + 2y)ey 2dy =
M [X] =
xf (x)dx =
2
r
Z
Z
2
1 2
m
y 2
( ey )0 dy = m,
=
e dy +
2
deoarece ultima integrala este 0.
Daca X are media m si admite densitate de probabilitate nesimetrica, cele doua arii
determinate de x = m pot fi neegale. Astfel daca X reprezinta o caracteristica numerica
studiata ntr-o colectivitate statistica, are nteles afirmatia ca majoritatea indivizilor au
caracteristica X mai mica decat media.
Regasim si n cazul continuu aceleasi proprietati pentru medie, pe care le-am ntalnit
n cazul discret.
112
yfY (y)dy +
zdz
(3.36)
Demonstratie. Vom folosi formula care defineste densitatea produsului de variabile aleatoare (3.30), presupunand ca X si Y au densitati de probabilitate fX , fY .
Z
Z
x dy
xdx
fX (y)fY
M [XY ]) =
.
y |y|
= M [X]M [Y ].
Daca o variabila aleatoare nu are medie, alte caracteristici numerice care studiaza
tendinta centrala sunt modul si mediana. Mediana a fost definita de (3.4) si ea exista pentru orice variabila aleatoare. De exemplu, n cazul repartitiei Cauchy, datorita
simetriei fata de axa Oy, mediana este me = 0, iar n cazul repartitei normale este m.
Definitia 3.4.2 mo se numeste modul pentru variabila aleatoare X cu densitatea de probabilitate f (x), daca este un punct de maxim pentru f (x).
113
M [Y ] =
(x)fX (x)dx.
(3.37)
M [Y ] =
yfY (y)dy
M [Y ] =
cos x
0
1
dx = 0.
2
k =
xk f (x)dx,
(3.38)
k =
(x 1 )k f (x)dx.
Intre momentele initiale si cele centrate au loc relatiile urmatoare, care se demonstreaza
fara dificultate:
k
k
X
X
i
i i
(3.39)
Cki ki 1i .
k =
(1) Ck ki 1 ; k =
i=0
i=0
114
Exemplul 3.4.3 Sa calculam momentele centrate ale repartitiei normale N (m, 2 ). Avem
Z
(xm)2
1
k =
(x m)k e 22 dx,
2
Z
( 2)k k y2
k =
y e dy.
Z
( 2)k
1 y2 k1 + k 1 k2 y2
k =
e y
y e dy =
+
2
2
Z
(k 1)( 2)k k2 y2
=
y e dy = (k 1) 2 k2 ,
2
deoarece prima expresie se anuleaza la limita. Deducem din relatia de recurenta precedenta
2k+1 = 0
.
2k
= (k 1)!! 2k
In particular, pentru k = 2, obtinem D2 [X] = 2 . Regasim, si n cazul variabilelor
aleatoare continue, inegalitatea lui Cebasev, cu ajutorul careia putem aprecia gradul de
mprastiere a valorilor variabilei; inegalitatea va constitui un important instrument de
lucru n cazul Legii numerelor mari (Capitolul 4).
Propozitia 3.4.3 (Inegalitatea lui Cebasev) Daca variabila aleatoare X este continu
a cu
media m si dispersia 2 , atunci are loc
2
, > 0,
2
2
2
> 0.
(3.40)
m+
(x m)2 f (x)dx+
m
(x m)2 f (x)dx.
m+
Din faptul ca x 6 (m , m + ), rezulta (x m)2 > 2 si dispersia poate fi minorata prin
Z m
Z
2
2
>
f (x)dx +
f (x)dx =
m+
115
=
deoarece
m+
f (x)dx ,
m
Exemplul 3.4.4 Timpul mediu de raspuns al unui calculator este de 15 secunde pentru
o anumita operatie, cu abaterea medie patratica 3 secunde. Estimati probabilitatea ca
timpul de raspuns sa se abata cu mai putin de 5 secunde fata de medie. Vom folosi
inegalitatea lui Cebasev. Avem
P ({|X 15| > 5}) 6
9
= 0, 36.
25
k =
iar din presupunerea facuta, a doua integrala este convergenta. De asemenea, daca exista
moment absolut de ordin k, exista momente absolute de orice ordin l 6 k. Intr-adevar,
Z
Z
Z
l
l
|x| f (x)dx =
|x| f (x)dx +
|x|l f (x)dx 6
|x| 1
Z
6
|x|>1
Z
l
|x| 1
|x|k f (x)dx.
|x| f (x)dx +
|x|>1
Prima integrala este finita datorita domeniului de integrare, iar a doua din presupunerea
facuta.
Inegalitatea lui Cebasev poate fi generalizata pentru momente absolute de orice ordin
k IN , n sensul urmator: daca variabila aleatoare X are moment absolut de ordin k,
atunci
M [|X m|k ]
, > 0,
(3.41)
P ({|X m| < }) > 1
k
sau echivalent
M [|X m|k ]
.
P ({|X m| > }) <
k
116
Propozitia 3.4.4 (Inegalitatea lui Schwarz) Daca variabilele aleatoare X si Y au momente absolute de ordin 2, atunci XY are moment absolut de ordin 2 si
p
2 (XY ) 6 2 (x)2 (y).
(3.42)
Demonstratie. Pentru orice IR, inegalitatea M [(|X| + |Y |)2 ] > 0 este evidenta.
Efectuand calculele avem
M [(X + Y )2 ] = 2 M [X 2 ] + 2M [|XY |] + M [Y 2 ] > 0,
si folosind semnul functiei de gradul al doilea, inegalitatea precedenta este adevarata daca
discriminantul 6 0, ceea ce revine la
M [|XY |2 ] 6 M [X 2 ]M [Y 2 ].
De unde, dupa extragerea radicalului gasim (3.42).
Obseram ca, n aceleasi ipoteze, rezulta si
p
|M [XY ]| 6 M [X 2 ]M [Y 2 ].
Definitia 3.4.3 Fie X si Y dou
a variabile aleatoare pentru care exista momentele absolute de ordinul al doilea. Numarul definit de
Cov[X, Y ] = M [(X M [X])(Y M [Y ])]
se numeste covarianta variabilelor X si Y , iar numarul dat de formula
[X, Y ] =
Cov[X, Y ]
,
D[X]D[Y ]
(3.43)
dac
a D[X] 6= 0, D[Y ] 6= 0, se numeste coeficient de corelatie. Variabilele aleatoare X si
Y se numesc necorelate dac
a
M [XY ] = M [X]M [Y ].
Observam ca daca X si Y sunt independente, din Propozitia 3.4.2 rezulta ca sunt necorelate. Se pot da exemple care sa ilustreze ca reciproca afirmatiei precedente nu este
adevarata, adica pot exista variabile aleatoare necorelate fara ca ele sa fie independente.
Daca X si Y sunt variabile aleatoare continue care admit momente absolute de ordinul al
doilea, dispersia sumei se calculeaza dupa formula
D2 (X + Y ) = D2 (X) + D2 (Y ) + 2Cov[X, Y ].
Aceasta formula se generalizeaza usor n cazul a n variabile. Din formula (3.43) rezulta
imediat ca
[X, X] = 1,
iar
[X, Y ] = 0 daca si numai daca X si Y sunt necorelate.
117
Propozitia 3.4.5 Pentru oricare doua variabile X si Y , care admit coeficient de corelatie, este satisfacut
a inegalitatea
|[X, Y ]| 6 1.
(3.44)
[X]
Demonstratie. Consideram variabilele aleatoare X 0 = XM
,Y 0 =
D[X]
inegalitatea lui Schwarz. Rezulta
p
|M [X 0 Y 0 ]| 6 M [X 02 ]M [Y 02 ].
Y M [Y ]
D[Y ]
si le aplicam
Ramane sa observam ca
[X, Y ] = M [X 0 , Y 0 ] =
si ca M [X 02 ] =
D2 [X]
D2 [X]
Propozitia 3.4.6 Pentru oricare doua variabile aleatoare, ce admit coeficient de corelatie, urmatoarele afirmatii sunt echivalente:
1. |[X, Y ]| = 1;
2. exista a, b IR, nesimultan nule si c IR , astfel nc
at relatia aX + bY + c = 0 are
loc aproape sigur (adica P ({aX + bY + c = 0}) = 1).
Vom schita demonstratia. Intr-un sens afirmatia este imediata; anume daca are loc
aX +bY +c = 0 aproape sigur si presupunem b 6= 0, gasim m, n IR astfel ca Y = mX +n.
Observam imediat ca
1, daca m > 0
[X, Y ] =
1, daca m < 0.
Reciproc, daca X 0 =
0
XM [X]
,Y 0
D[X]
0
Y M [Y ]
,
D[Y ]
0 2
[X, Y ] = M [X Y ] = 1 si M [(X Y ) ] = 0. Intr-un cadru mai general decat cel prezentat n acest curs (vezi [22]), se poate arata ca din ultima egalitate rezulta ca X 0 Y 0 = 0
aproape sigur, deci:
X M [X]
Y M [Y ]
=
.
D[X]
D[Y ]
Schimband eventual notatiile, din ultima egalitate deducem 2.
Notiunea de moment poate fi extinsa la variabile aleatoare multidimensionale.
Definitia 3.4.4 Daca (X1 , . . . , Xn ) este o variabila aleatoare n-dimensionala cu densitatea de probabilitate fX1 ...Xn , numim moment initial de ordinul (k1 . . . kn ) numarul
Z
Z
k1
kn
k1 ...kn = M [X1 , . . . , Xn ] = . . .
xk11 . . . , xknn fX1 ...Xn (x1 , . . . xn )dx1 . . . dxn .
IRn
118
Medii conditionate.
Daca X este o variabila aleatoare cu densitatea de probabilitate f si A K, definim
media lui X conditionata de A
Z +
M [x|A] =
xf (x|A)dx
(3.45)
xf (x)dx
M [T |{T 6 t}] = Rt +
.
f (x)dx
t
Daca X si Y sunt doua variabile aleatoare cu densitatile de probabilitate fX , fY definim
mediile conditionate prin formulele
Z +
M [Y |x] =
yfY (y|x)dy
M [X|y] =
xfX (x|y)dx,
daca exista. Se poate arata ca mediile conditionate sunt de fapt variabile aleatoare, care
admit la randul lor medie, ce se exprima prin formulele integrale ale mediei totale.
Z +
M [Y ] =
M [Y |x]fX (x)dx
M [X] =
M [X|y]fY (y)dy.
yfY (y|x)dy =
ydy
fX (x)dx
fY (y|x)fX (x)dx.
119
0
k
=
k!
tk e(+)t dt.
+
0
r e dr =
=
( + )k+1
+
k r
k
.
M [N ] =
M [N |t]fT (t)dt =
0
(t + 2 t2 )fT (t)dt = M [T ] + 2 M [T 2 ].
3.5
1
,
D2 [T ] =
1
.
2
Deci
Functia caracteristic
a a unei variabile aleatoare
120
eitx f (x)dx
Deoarece
>
|x| A
iar din continuitatea exponentialei exista h suficient de mic ncat |eihx 1| < /2. Atunci
putem scrie
Z A
Z
ihx
|(t + h) (t)| 6
|e 1|f (x)dx +
f (x)dx < .
A
>
|x| A
121
cazul cel mai general cu exceptia unei multimi de probabilitate nula (deci aproape sigur).
Demonstram afirmatia n cazul n care f este continua. Aratam, mai ntai, ca ultimele
doua afirmatii sunt echivalente. Avem
F 0 (x) = (1 F (x))0 f (x) = f (x).
Reciproc, daca f (x) = f (x)
Rx
R
R
F (x) = f (t)dt = 1 x f (t)dt = 1 + x f (u)du =
R x
= 1 f (u)du = 1 F (x).
In ce priveste echivalenta primelor doua relatii se observa imediat ca
Z
Z
itx
f (x) = f (x) = (t) =
e f (x)dx =
eitx f (x)dx = (t) = (t).
Se poate arata, n prezenta unor rezultate suplimentare si care nu sunt cuprinse n acest
curs, ca din faptul ca este reala, rezulta f (x) = f (x).
Propozitia 3.5.2 1. Daca Y = aX + b, cu a, b IR, atunci Y (t) = eitb X (at);
2. Daca X si Y sunt independente, atunci X+Y = X Y .
Demonstratie.
1. Y (t) = M [eity ] = M eit(aX+b) = eitb M eitaX = eitb X (at).
2. X+Y (t) = M eit(X+Y ) = M eitX eitY = X (t)Y (t).
Cunoasterea functiei caracteristice permite calculul momentelor initiale, dupa cum
rezulta din urmatoarea teorema.
Teorema 3.5.1 Daca o variabila aleatoare admite moment absolut de ordin n, n IN ,
atunci functia caracteristic
a este de n ori derivabila si are loc :
k =
(k) (0)
, k = 1, . . . n.
ik
Demonstratie. Derivam formal de k ori sub integrala cu parametru din definitia functiei
caracteristice. Gasim dupa majorari
Z
(k)
k
(t) = i
xk eitx f (x)dx,
iar
x e f (x)dx 6 k 6 n , k = 1, . . . n,
k itx
122
X
(it)k
(t) =
k .
k!
k=0
Demonstratie. Inlocuim n definitia functiei caracteristice dezvoltatea n serie a exponentialei si gasim
Z
(t) =
eitx (x)dx =
Z
itx
(itx)n1 (itx)n ix
1+
+ ... +
+
e
f (x)dx =
1!
(n 1)!
n!
= 0 +
it
(it)n1
1 + . . . +
n1 + Rn .
1!
(n 1)!
Teorema 3.5.3 (Formula de inversiune) Fie X o variabila aleatoare avand si F , respectiv, functia caracteristic
a si functia de repartitie. Daca x1 , x2 , cu x1 < x2 sunt puncte
de continuitate ale lui F , atunci are loc
Z c itx1
1
e
eitx2
F (x2 ) F (x1 ) = lim
(t)dt.
(3.46)
c 2 c
it
Demonstratie. Observam ca pentru c IR, functia de sub integrala este continua, daca o
definim n t = 0 prin
eitx1 eitx2
lim
= (x2 x1 )(0).
t0
it
De asemenea, functia are un majorant integrabil, deci integrala
Z c itx1
e
1
eitx2
Ic =
(t)dt
2 c
it
este convergenta. Consideram cazul particular n care X are densitate de probabilitate f
si nlocuim n integrala precedenta pe
Z c Z itx1
1
e
eitx2 itz
Ic =
e f (z)dzdt.
2 c
it
Prin schimbarea ordinii de integrare (posibila deoarece n raport cu z avem absoluta
convergenta, iar n raport cu t integrarea se face pe interval finit), gasim
Z Z c it(zx1 )
e
eit(zx2 )
1
dt f (z)dz =
Ic =
2
it
c
Z
0
c
123
eit(zx1 ) eit(zx2 )
dt +
it
c
0
eit(zx1 ) eit(zx2 )
dt f (z)dz.
it
dtf (z)dz
0
t
t
Alegem un > 0 astfel ncat x1 + < x2 si descompunem integrala pe domeniile :
(, x1 ), (x1 , x1 + ), (x1 + , x2 ), (x2 , x2 + ), (x2 + , ).
Reamintim formula lui Dirichlet [10] :
Z
1 c sin t
1/2,
lim
dt =
1/2,
c 0
t
daca > 0
daca < 0
dt 0, daca c
0
t
t
si cum integrala este uniform marginita n raport cu c, putem comuta integrala cu limita
si obtinem
Z x1 Z c
1
sin t(z x1 ) sin t(z x2 )
si analog
Z
x2 +
Z c
0
t
t
dtf (z)dz 0, pentru c .
(3.48)
lim
dtf (z)dz =
c x + 0
t
t
1
Z x2
sin t(z x1 ) sin t(z x2 )
=
dtf (z)dz = F (x2 ) F (x1 + ).
(3.49)
t
t
x1 +
Pe intervalele (x1 , x1 + ) si (x2 , x2 + ), integralele pot fi majorate respectiv, daca
folosim din nou formula lui Dirichlet, cu
2(F (x1 + ) F (x1 )),
2(F (x2 + ) F (x2 )).
(3.50)
124
Pentru orice > 0, din (3.47) si (3.48) exista c astfel ncat c > c are loc
Z Z c
1
sin
t(z
x
)
sin
t(z
x
)
2
1
f (z)dz 6
t
t
0
6 /3 + /3 + F (x2 ) F (x1 + )/3 + 2(F (x1 + )
F (x1 ) + F (x2 + ) F (x2 )).
In inegalitatea de mai sus au intervenit si relatiile (3.49) si (3.50). Deoarece x1 si x2 sunt
puncte de continuitate pentru F
lim(F (x1 + ) F (x1 )) = lim(F (x2 + ) F (x2 )) = 0.
Z
F (x2 ) = lim
lim
x1 c
eitx1 eitx2
(t)dt
it
si
Fs0 (x) = f (x)
n orice punct de continuitate a lui f .
Demonstratie. Pentru orice doua puncte de continuitate ale lui F , are loc din formula de
inversiune
Z itx1
e
eitx2
1
(t)dt,
F (x2 ) F (x1 ) =
2
it
125
deoarece folosind ipoteza, functia din membrul al doilea este integrabila. Presupunand ca
x1 = x h, x2 = x + h, atunci :
Z
1
sin th itx
F (x + h) F (x h) = 2h
e (t)dt.
2 th
Deoarece
sin th
th 6 1,
avem
itx sin th
e
(t) 6 |(t)|, h IR,
th
si
lim eitx
h0
sin th
= eitx .
th
Intr-un cadru mult mai general decat cel prezent, se poate demonstra un criteriu de
convergenta dominata a lui Lebesgue [22], n baza caruia putem trece la limita sub integrala si gasim
Z
F (x + h) F (x h)
1
0
Fs = lim
eitx (t)dt.
(3.51)
=
h0
2h
2
Sa demonstram ca Fs0 este continua; ntr-adevar
|Fs0 (x
1
=
1
+ h) Fs (x)| 6
2
th
2 sin |(t)|dt =
2
Z
th
th
sin |(t)|dt + 1
sin |(t)|dt.
2
|t|>A
2
|t|6A
126
k=1 j=1
2 X
2
X
k=1 j=1
(t) = 2 + i2 ,
z1 z2 = i,
(t) =
eitx f (x)dx.
Z
=
n X
n
X
k=1 j=1
(tj tk )zj zk =
n X
n Z
X
k=1 j=1
Z
eix(tk tj ) f (x)zk zj dx =
ix(tk tj )
f (x)dxzk zj
n
X
k=1
!
eitk x zk
n
X
j=1
!
eitj x zj
f (x)dx =
127
n
2
X
itk x
=
e zk f (x)dx > 0.
Z
k=1
u=z
v = z t.
Domeniul [0, Z] [0, Z] din Figura 3.12 este dus n domeniul reprezentat n figura 3.13.
Se obtine imediat
Z Z
1
|t|
pZ (x) =
1
(t)eitx dt.
2 Z
Z
Sa demonstram ca pZ (x) este integrabila pe R. Vom reface n acest scop o demonstratie
datorata lui Yu Linnik, pe acest caz particular. Notam
Z x
G(x) =
pZ (z)dz
x
deducem
(
1
p(t) =
0,
1
G(x) =
2
p(t)
Z
|t|
Z
(t),
itx
|t| 6 Z
,
|t| > Z
1
dzdt =
p(t)
Z
sin tx
dt.
t
Datorita faptului ca pZ > 0, rezulta ca G este nedescrescatoare. Pentru asigurarea integrabilitatii este suficient sa aratam ca G este marginita. Introducem functia auxiliara
Z
1 2u
G(x)dx
G1 (u) =
u u
si observam ca
G(u)
G1 (u) >
u
2u
dx = G(u).
u
128
dt.
=
p(t)
p(t)
u Z
t2
u Z
t2
Fie M = sup |p(t)|. Atunci
Z Z
Z
2
(sin ut)2
(sin ut)2
p(t)
dt
6
2M
udt,
u Z
t2
u2 t 2
iar
2
u
(sin ut
)2
M
2
p(t)
dt 6
2
t
Z
Z
(sin v)2
dv.
v2
Integralele din membrul al doilea sunt convergente. Deci marginirea este asigurata. Se
constata ca
Z
1
p(t)eitx dt
pZ (x) =
2
1
adica 2
pZ este transformata Fourier a functiei p. Folosind formula de inversiune pentru
functia p continua (vezi [10]), rezulta ca
Z
1
|t|
1
1
(t) =
pZ (x)eitx dx, |t| 6 Z.
2
Z
2
In particular, pentru t = 0,
pZ (x)dx = (0) = 1,
3.6
129
t2 2
2 .
(3.52)
.
Demonstratie. Reamintim ca densitatea de probabilitate a repartitiei normale este
f (x) =
(xm)2
1
e 22
2
(xm)2
1
1
2
itx 2 2
(t) =
e e
dx =
eitmy +ity 2 dy =
2
t2 2
eitm 2
t 2
e(y 2 i) dy = eimt
t2 2
2 .
In particular, daca X este o variabila repartizata N (0, 1), functia sa caracteristica este
t2
(t) = e 2 .
Folosind Propozitia 3.5.2 determinam comod repartitia sumei de variabile aleatoare normale.
Teorema 3.6.1 Daca Xk : N (mk , k2 ), k = 1, . . . n, sunt variabile aleatoare independente,
n
n
X
X
atunci variabila aleatoare X1 + . . . + Xn este repartizat
a N(
mk ,
k2 ).
k=1
k=1
t2 k2
2
k=1
n
X
t2
n
X
mk k=1
it
2
k=1
k2
=e
n
n
X
X
care corespunde n mod unic variabilei repartizate N (
mk ,
k2 ).
k=1
k=1
130
1X
Xk
n k=1
este repartizat
a N (m,
2
).
n
Demonstratie. Din Teorema 3.6.1 suma este repartizata N (nm, n 2 ). Sa calculam functia
de repartitie a variabilei aleatoare notata
n
1X
X=
Xk .
n k=1
Avem
FX = P ({X < x}) = P ({
n
X
Xk < nx}).
k=1
(nxnm)2
(xm)
1
1
2
2
2n
fX (x) =
e
n= e 2n ,
2n
2 n
Z
...
IRn
n
X
t k xk
i
k=1
e
f (x1 , . . . , xn )dx1 . . . dxn .
Z
eiT
...
IRn
tX
t1
x1
det A 1 X t AX
2
f (x) =
.
n e
(2) 2
131
Z
Z
1 t
det A
t
...
eiT X 2 X AX dx1 . . . dxn .
(t1 , . . . , tn ) =
2
(2) n
IRn
Facem transformarea
Portogonala X = HY , pentru care forma patratica de la exponent
are forma canonica j=1 lj yj2 , cu lj > 0 (aceste transformari au fost explicate n detaliu
la repartitia normala n-dimensionala n 3.3 ). Notam U = H 1 T = H t T . Atunci, se
observa ca
T t X = (HU )t HY = U t H t HY = U t Y.
Cu aceasta functia caracteristica devine
(t1 , . . . , tn ) =
det A
(2)
n
X
Z Z
lj yj2
j=1
IRn
n
(2)
12
2
n
det A Y
2
n
iU t Y
j=1
dy1 . . . yn =
eiuj yj 2 j yj dyj .
|l |
j
reprezinta functia caracteristica pentru o variabila
Ultima integrala nmultita cu 2
1
aleatoare repartizata N (0, lj ), deci folosind (3.52), avem
(t1 , . . . , tn ) = e
12
u2
j
j=1 lj
Pn
l1 0 . . .
t
0 l2 . . .
H AH =
0 0 ...
dupa legea
0
0 ,
ln
unde lj > 0, sunt valorile proprii ale matricei A. Prin inversare gasim
1
0 ... 0
l1
H 1 A1 H = 0 l12 . . . 0 ,
0 0 . . . l1n
deci n ultima integrala recunoastem ca exponentul este urmatorul produs de matrice
n
X
u2j
j=1
lj
= U t (H 1 A1 H)U =
= T t H(H 1 A1 H)H 1 T = T t A1 T
(s-a folosit faptul ca U = H t T ). Gasim forma finala
1
(t1 , . . . , tn ) = e 2 T
t A1 T
132
21 T t A1 T
i2 e
n
X
a1
hk th
n
X
th tk
(0, . . . , 0) =
!
1
a1
hk tk + ahk e
12 T t A1 T
(0, . . . , 0) = a1
hk .
k=1
h=1
th
(0, . . . , 0) =
mh + i
!
a1
hk tk
(t1 , . . . , tn )(0, . . . , 0) = mh ,
k=1
1
M [Xh Xk ] = 2
i
=
n
X
(mh + i
n
X
k=1
2
th tk
a1
hk tk )(mk + i
n
X
(0, . . . , 0) =
!
a1
hk tk ) (t1 , . . . , tn )+
h=1
1
+a1
hk (t1 , . . . , tn )(0, . . . , 0) = mh mk + ahk .
133
Cov[X1 , X2 ] = 1 2
si gasim
1
12
1 2
1 2 22 ,
22
1 2
1 2 12
1
2(12 )
12
p
f (x1 , x2 ) =
e
21 2 1 2
2(x1 m1 )(x2 m2 )
1 2
(x2 m2 )2
22
.
(3.53)
Exemplul 3.6.1 Variabila aleatoare (X, Y, Z) este normal repartizata si are matricea de
covarianta
1 0, 2 0, 3
0, 2 1 0, 4 .
0, 3 0, 4 1
Sa determinam densitatea de probabilitate a variabilei aleatoare marginale (X, Z). Observam pentru aceasta ca matricea de covarianta este
1 0, 3
.
0, 3 1
Deci mX = mZ = 0, = 0, 3, 1 = 2 = 1 si nlocuind n (3.53), obtinem densitatea de
probabilitate cautata.
Vom enunta un rezultat care stabileste legatura dintre convergenta functiilor caracteristice
si cele de repartitie, de mare utilitate practica. Demonstratia acestui rezultat se gaseste
de exemplu n [10] si este facuta ntr-un cadru mai general.
Teorema 3.6.2 Daca sirul de functii caracteristice n converge pentru orice t la (t) =
t2
1
2
Repartitia 2 (hi p
atrat). Functia f : IR IR, definita prin
f (x) =
n
1
1 2x2
2
x
e
, 0 6 x < , n IN , > 0
n
2 n ( 2 )
n
2
134
R
este o densitate de probabilitate. Prin substitutia y = 2x2 integrala 0 f (x)dx se reduce
n
la 2 2 n ( n2 ). Pentru functia si proprietatile ei, vezi Anexa 3. Aceasta repartitie a fost
descoperita de Helmert si pusa n valoare de Pearson. n se numeste num
ar de grade de
libertate. Vom nota X : H(n, ). Functia caracteristica este data de
n
(t) = (1 2 2 ti) 2 .
R
Intr-adevar, calculam integrala (t) = f (x)eitx dx si obtinem
1
(t) = n n n
2 2 ( 2 )
1
= n n n
2 2 ( 2 )
eitx 22 x 2 1 dx =
0
n
x 2 1 e 22 (12
2 ti)
dx.
1 00
(0) = n(n + 2) 4 ,
i2
..
.
1 (k)
(0) = n(n + 2) . . . (n + 2k 2) 2k .
ik
Urmatoarea teorema este un important instrument de lucru n statistica matematica.
k =
este repartizat
a H(n, ).
135
y2
2
2
FXk2 (x) = P ({Xk < x}) = P ({ x < Xk < x}) =
e 22 dy, x > 0.
2 0
Prin derivare, gasim
fXk2 (x) =
1
x
e 22 , x > 0,
2 x
k (t) = (1 2 2 ti) 2 .
Folosind acum faptul ca functia caracteristica a sumei este produsul functiilor caracteristice, obtinem
n
Y
1
n
(1 2 2 ti) 2 = (1 2 2 ti) 2 ,
(t) =
k=1
2n 2
este asimptotic normala N (0, 1), pentru n .
136
it
n
n
t
2 (1 2 i
) 2 = eit 2 (1
2 2
t2
2 n
it) 2 .
n
2t 2
Calculam limita lui |n (t)|
) , pentru n si gasim e 2 . Functia n (t) poate
p n= (1+ n p
fi scrisa sub forma (cos t 2 i sin t n2 )(cos n2 n i sin n2 n )n , unde (cos n +i sin n )n =
q
1 n2 it. Pentru n suficient de mare,
r
n = arctan
2
t.
n
n n
2
yn = t
+ arctan t
.
2
2
n
q
Notand x = n2 , avem de calculat
lim
x0
arctan tx tx
x2
t2
n
X
k=1
Xk2
s
X
lj2 , s < n,
j=1
este repartizat
a H(n s, 1).
Demonstratie. Variabilele aleatoare li si lj cu i 6= j, sunt independente, deci
n
n
X
X
M [li lj ] = M [li ]M [lj ] = M [
aik Xk ]M [
ajk Xk ] = 0,
k=1
k=1
137
k=1
n
X
k=1
n
X
aik ajk ,
k=1
M [li2 ]
n
X
a2ik = 1, i = 1, . . . , s.
k=1
Sistemul celor s vectori (a11 , . . . , an1 ), . . . , (as1 , . . . , asn ) este ortogonal si poate fi deci
completat la o baza ortonormata. Notam matricea corespunzatoare cu A = (aij ) i, j =
1, . . . , s, care este deci ortogonala si au loc prin urmare
n
X
a2jk
= 1,
k=1
n
X
aik ajk = 0, i, j = 1, . . . , n.
k=1
Introducem notatiile
lr (x1 , . . . , xn ) =
n
X
ark xk , r = s + 1, . . . , n,
k=1
lk2 (x1 , . . . , xn )
Q=
n
X
Xk2
k=1
Xk2 .
k=1
k=1
Deci
n
X
s
X
j=1
lj2 =
n
X
lk2 (x1 , . . . , xn ).
k=s+1
j=1
138
deci
s
X
rj = n.
j=1
i=1
k=1
l1
..
unde L = . = AX. Fiecare forma patratica Qi este suma de ri patrate li , repartiln
zate N (0, 1) (obtinute printr-o transformare ortogonala de variabile normal repartizate),
deci Qi sunt repartizate H(ri , 1) . Se verifica usor ca sunt si independente.
Repartitia Student. Spunem ca variabila aleatoare X este repartizata Student cu
n grade de libertate, daca are densitatea de probabilitate
( n+1 )
f (x) = 2 n
n( 2 )
x2
1+
n
n+1
2
, x IR
Vom nota X : S(n). Sa verificam mai ntai ca f este o densitate de probabilitate. Observam ca din paritatea functiei
Z
Z
f (x)dx = 2
f (x)dx.
x2
1+
n
dy = 12 t
(1 t)
Z
23
n+1
2
y2
1+y 2
dx =
(1 + y 2 )
n+1
2
dy.
dt, si
2( n+1
)
2
f (x)dx =
n
n
n( 2 )
(1 t)
0
n+1
2
3
1 1
t 2 (1 t) 2 dt =
2
( n+1
)
n
2
n B( , 1) = 1.
1
( 2 )( 2 ) 2
139
Momentele repartitiei Student. Functia f fiind para, media este 0, deci momentele
initiale coincid cu cele centrate, iar toate cele de ordin impar sunt nule.
n+1
Z
2
)
( n+1
x2
2k
2
2k = 2k =
x f (x)dx =
x
1
+
dx.
n
n( n2 )
2k
nk (k + 12 )( n2 k)
n
2k =
, daca k > 0.
n
( 2 )
2
nk 1.3. . . . (2k + 1)
.
(n 2)(n 4) . . . (n 2k)
( n+1
)
1
lim 2 n = ,
n
n( 2 )
2
vom analiza separat cazurile n par si n impar. Reamintim formula lui Wallis
22n (n!)4
.
n n((2n)!)2
= lim
(k + 21 )
(2k)
(2k 1)!
=
=
2k(k)
22k+1 2 (k) 2k
22k1 2k((k 1)!)2
140
(2k)!k 2
.
22k1 2k(k!)2 2k
Din formula lui Wallis, ultimul sir are aceeasi comportare la limita cu sirul
2k 2
2 k
2k1
2
2k k2k
care, pentru k , tinde evident la 12 . Daca n = 2k + 1, folosind din nou formula lui
Wallis, obtinem
(k + 1)
k!22k1 (k 1)!
p
=
=
2k + 1(k + 12 )
(2k + 1)(2k)
22k1 2k(k!)2
1
=p
, pentru k .
2
(2k + 1)(2k)!
Deci pentru un numar mare de grade de libertate, se utilizeaza tabelele legii normale.
Pentru repartitia Student exista tabele care determina, pentru n = 1, . . . 30, valorile
P ({|X| > }) = , adica ariile hasurate din figura 3.15. De asemenea exista tabele pentru
calculul functiei de repartitie
Z
x
f (t)dt,
F (x) =
adica de determinare a ariilor din Figura 3.16, pentru x > 0. Pentru x < 0, se folosesc
aceleasi tabele, dar tinem seama de
Z x
Z x
Z
F (x) =
f (t)dt =
f (t)dt =
f (t)dt = 1 F (x).
1
2
n+1
2
n+1 ( n2 )
y 2 1 e
x2 +y
2 2
u(x, y) =
sx
v(x, y) = y
y
n .
141
1
n2
n+1
2
n+1 ( n2 )
n1
2
2
( un +1)v
2 2
1
g(u, v)dv =
n+1
n
n2 2 n+1 ( )
2
n1
2
( u +1)v
n 2
v 2 e 2 dv =
n+1
n+1
n+1
)
(
)
2
1
u
2
2
= 2 n 1+
,
n+1
n+1
n
n(
)
n
2
2
2
n2 2 n+1 ( ) 1 + u
2
n
2 2
(
u2
( + 1)v
aceasta datorita schimbarii de variabila n 2
= t.
2
Consecint
a. Daca variabilele aleatoare independente X1 , . . . , Xn+1 sunt repartizate
2
N (0, ), atunci variabila aleatoare
r
Xn+1
X12 + . . . + Xn2
n
: S(n).
Demonstratia este imediata, daca se foloseste faptul ca X12 + . . . + Xn2 este repartizata
H(n, ).
Teorema 3.6.10 Fie X1 , . . . , Xn variabile aleatoare independente repartizate
X 1 + . . . Xn
N (0, ) si X =
. Atunci variabila aleatoare
n
p
X
y = n(n + 1) v
uX
u n
t (Xj X)2
j=1
este repartizat
a S(n 1).
Demonstratie. Alegem aij IR astfel ncat matricea
a11
. . . a1n
a21
. . . a2n
A = ...
a(n1)1 . . . a(n1)n
1
. . . 1n
n
142
y1
y2
.. = A
.
yn
x1
x2
..
.
xn
+ ... +
2
Yn1
n
X
Xj2
n
X
nX =
(Xj X)2 .
2
j=1
j=1
p
n(n 1)
X
n
X
=r
2
(Xj X)
Yn
Y12
j=1
2
+ . . . + Yn1
n1
Xn
X12 + . . . + Xn2
n
n1
n2
n21
n1
2
n1 +n2
2
n2
2
x
n1
1
2
n1
1+ x
n2
n1 +n
2
2
, 0 6 x < ,
143
R
integrala f (x)dx este redusa la o integrala Beta si folosind proprietatile functiei Beta
(Anexa 3) deducem imediat ca functia de mai sus este o densitate de probabilitate. Momentele initiale ale repartitiei Snedecor se obtin prin calcul direct
Z
n21
n1 +n
2
2
2
n
n1 +n
n1
n1
k 21 1
2
k =
x x
1+ x
dx =
n2
n2
n21 n22 0
k
(k + n21 )( n22 k)
n2
,
=
n1
n21 n22
daca facem aceeasi schimbare de variabila ca mai sus.T
inand cont de proprietatile functiei
Gama, gasim
k
n1 (n1 + 2) . . . (n1 + 2k 2)
n2
n2
k =
, k< .
n1
(n2 2)(n2 4) . . . (n2 2k)
2
In particular gasim
n2
1 =
n2 2
2 =
n1 + 2
n22
n1 (n2 2)(n2 4)
(3.54)
n32
(n1 + 2)(n1 + 4
3 = 2
.
n1 (n2 2)(n2 4)(n2 6)
Teorema 3.6.11 Fie X1 , X2 doua variabile aleatoare independente, care sunt repartizate
S(n1 , n2 ). Atunci variabila aleatoare
n2 X1
: S(n1 , n2 ).
n1 X2
Demonstratie. Notam cu U variabila din enunt si determinam functia de repartitie
X1
n1
FU (x) = P ({U < x}) = P
< x ,
X2
n2
iar prin derivare gasim
n1
n1
fU ( x).
n2
n2
Mai departe vom folosi formula care da densitatea catului de variabile aleatoare (3.31)
xz
n1
Z z n2
1
1
1
e 2z 2
e 2 (xz) 2
zdz,
fU (x) = n + n
1
2
0
n1
n2
2 2
2
2
z(1 + x)
care prin substitutia
= t, devine
2
n1
n1 + n2 1
Z
1
1
2t
2
2
fU (x) = n + n
x2
et
dt =
1
2
1+x
1+x
0
n1 n2
2 2
2
2
fU (x) =
144
n1 + n2
n1 + n2
n1
2
2 .
= n n x 2
(1 + x)
1
2
2
2
n1
Daca facem schimbarea de variabila x = y, se obtine densitatea de probabilitate Snen2
decor.
Consecint
a. Daca variabilele aleatoare independente Xj , j = 1, n1 , Yk , k = 1, n2 ,
sunt repartizate N (0, ), atunci variabile aleatoare
n2 X12 + . . . Xn21
n1 Y12 + . . . + Yn22
este repartizata S(n1 , n2 ). Daca variabila aleatoare X este repartizata S(n1 , n2 ), variabila
1
aleatoare ln X are densitatea de probabilitate
2
n21
n1 +n
2
2
2
n1 +n
n
n1
1
n1 x
2x
2
e
1+ e
f (x) = 2
.
(3.55)
n2
n2
n21 n22
O variabila aleatoare avand aceasta densitate se numeste Fisher.
Repartitia Gama. Se verifica imediat ca functia
f (x) =
1 x m1
e x
, x > 0, m > 0,
(m)
itx x m1
e e x
0
1
dx =
(m)
145
Exemplul 3.6.2 Repartitia Erlang Sa determinam repartitia sumei de n variabile aleatoare independente, repartizate exponential, cu parametrul . Functia caracteristica a
repartitiei exponentiale este
(t) =
.
it
Sumei de variabile exponentiale i corespunde functia caracteristica
n
n (t) =
,
it
iar aceasta corespunde variabilei aleatoare cu densitatea de probabilitate
f (x) =
ex (x)n1
, x > 0.
(n 1)!
Z
y n1 ey |x0
(n 1)y
0
(x)n1 x
n2
=
e
+
(n 1)!
(n 2)!
Repetnd integrarea prin parti, gasim
F (x) = 1
k=0
dy
y n2 ey dy.
n1
X
(x)k
k!
n2 y
ex .
f (x) =
0 6 x 6 1, m > 0, n > 0.
m(m + 1) . . . (m + k 1)
.
(m + n)(m + n + 1) . . . (m + n + k 1)
m(m + 1)
m
, 2 =
,
m+n
(m + n)(m + n + 1)
mn
2 = 2 12 =
.
2
(m + n) (m + n + 1)
1 =
146
3.7
Fiabilitate
In sensul cel mai larg , fiabilitatea reprezinta proprietatea unui dispozitiv de a-si
ndeplini functia specifica n conditii de exploatare date. O analiza completa a fiabilitatii
ne pune n evidenta:
-fiabilitatea precalculata, care se evalueaza pornind de la conceptia dispozitivului si a
componentelor sale;
-fiabilitate tehnica (nominala) determinata n urma ncercarilor n conditii de fabrica;
-fiabilitate de exploatare, determinata de conditiile reale de exploatare, cu luarea n
considerare a actiunii complexe a tuturor factorilor ce influenteaza functionarea.
Fiabilitatea poate fi exprimata cantitativ prin parametrii de fiabilitate. Determinarea
lor se face n practica n urma prelucrarii statistice a datelor. Cel mai frecvent utilizata
este probabilitatea functionarii fara defectiune ntr-un interval de timp. Intervalul de timp
n care sistemul functioneaza fara defectiuni este o variabila aleatoare pe care o notam cu
T.
Definitia 3.7.1 Numim functie de fiabilitate sau reliabilitate functia R : IR+ [0, 1]
definit
a prin
R(t) = P ({T > t}).
Observam ca 1 R(t) este functia de repartitie, care n sensul fiabilitatii masoara probabilitatea ca pana la momentul t sa apara o defectiune. Functia F (t) = 1 R(t) se mai
numeste functie de nesigurant
a. In stransa legatura cu proprietatile functiei F (t), putem
enunta pe cele ale lui R.
1. R(0) = 1;
2. lim R(t) = 0;
t
F (t + t) F (t)
R(t + t) R(t)
=
.
R(t)
R(t)
In ultima relatie mpartim prin t si trecem la limita pentru t 0. Daca aceasta limita
exista, gasim ecuatia diferentiala
R0 (t)
= r(t),
R(t)
147
cu conditia initiala
R(0) = 1,
care are ca solutie
R(t) = e
Rt
0
r(s)ds
(3.56)
R(10) = e
0, 1ds
0
= e1 = 0, 368
In practica sunt utilizate o parte din repartitiile continue prezentate anterior, dar si altele
specifice.
Repartitia exponential
a. are densitatea de probabilitate
t
e , daca t > 0,
f (t) =
( > 0).
0,
daca t < 0,
Se verifica imediat ca f este o densitate de probabilitate. Functia de fiabilitate este
Z
R(t) =
f (s)ds = et ,
t
R0 (t)
=
R(t)
este deci constanta. Aceasta repartitie este utilizata pentru dispozitive care nu mbatranesc.
Repartitia Weibull. Are densitatea de probabilitate
t1 et , daca t > 0,
(, R+ ).
f (t) =
0,
daca t < 0
Functia de fiabilitate este
R(t) = et ,
iar rata de defectare
r(t) = t1 .
Pentru = 1 se regaseste repartitia exponentiala, iar pentru = 2 se obtine repartitia
Rayleigh. Faptul ca rata este o functie polinomiala, face sa modeleze mai bine diferitele
situatii practice; de aceea repartitia Weibull este des utilizata.
148
Pentru diferite valori ale lui , n Figura 3.18 sunt reprezentari grafice ale densitatii
de probabilitate, iar n Figura 3.19 si 3.20 ale ratelor si functiilor de fiabilitate.
In general variatia defectiunilor unui dispozitiv se poate mparti n trei perioade.
1. perioada initiala n care apar defectiuni datorate erorilor de fabricatie si se face
rodajul (copilaria);
2. perioada de functionare care ncepe dupa rodaj, cand numarul defectiunilor scade,
ramanand practic constant (maturitatea), pentru care se poate utiliza distributia exponentiala;
3. perioada n care intensitatea de defectare creste continuu, datorita uzurii (batranetea).
Componentele unui dispozitiv pot fi legate n serie, sau n paralel. Vom analiza
modul de determinare a fiabilitatii pentru fiecare situatie n parte.
Legare n serie. Spunem ca un dispozitiv are n componente legate n serie, daca
defectarea uneia, atrage nefunctionarea ntregului sistem. Convenim sa vizualizam prin
schema de la Figura 3.21.
Presupunem ca fiecare componenta Ci , i = 1, . . . n, se poate defecta indiferent de
celelalte, cu rata de defectare ri si functia de fiabilitate Ri . Daca T , respectiv Ti , i =
1, . . . , n semnifica timpul de functionare pana la prima defectare a sistemului, respectiv a
componentei Ci , atunci evident
{T > t} =
n
\
{Ti > t}
i=1
ri (s)ds
n
n
Y
Y
0 i=1
R(t) =
Ri (t) =
e
=
i=1
i=1
Z tX
n
ri (s)ds
0 i=1
=e
.
Deci rata de defectare este
r(t) =
n
X
ri (t).
i=1
Observam ca T = min{T1 , . . . , Tn }.
Legare n paralel. Un dispozitiv are n componente legate n paralel, daca acesta
poate functiona, chiar daca una din componente se defecteaza.
Sistemul nu functioneaza daca fiecare din componente nu functioneaza; presupunem
ca acestea se pot defecta independent una de alta. Atunci obtinem
{T < t} =
n
\
{Ti < t}
i=1
149
n
Y
(1 Ri (t)) .
i=1
150
PROBLEME PROPUSE
Problema 3.1 O variabila aleatoare X are repartitia data de legea triunghiului
dreptunghic pe intervalul (0, a), a > 0 (vezi Figura 3.24). Gasiti :
a. densitatea de probabilitate;
b. functia de repartitie;
c. probabilitatea ca variabila aleatoare X sa ia valori n intervalul (a/2, a);
d. media si dispersia.
Solutie a. Scriem dreapta cu taieturile (a, 0) si (a/2, 0) si gasim
x
2
(1 ), x (0, a),
a
a
f (x) =
0,
x
/ (0, a) ;
x 6 0,
0,
x
x
(2 ), 0 < x 6 a,
b. F (x) =
a
a
1,
x > 0.
a
a
1
c. P ({X ( , a)}) = F (a) F ( ) = ;
2
2
4
a 2
a2
d. M [X] = , D [X] = .
3
18
Problema 3.2 Determinati functia de repartitie a variabilei aleatoare X, repartizata
1
Cauchy, deci cu densitatea de probabilitate f (x) = (1+x
x IR.
2) ,
R: F (x) =
arctan x + 12 .
Problema 3.3 O variabila aleatoare X are repartitia Simpson sau legea triunghiului
isoscel pe un interval (a, a), a > 0.
Gasiti
a. densitatea de probabilitate;
b. functia de repartitie.
R: Graficul este dat de Figura 3.25
x
1
(1 ), 0 < x < a,
a
a
1
x
a. f (x) =
(1 + ), a < x < 0, ;
a
a
0,
|x| > a.
b. F (x) =
151
0,
x 6 0,
1 2
1
a (x + a) + 2a2 (x a ), a < x 6 0,
x2
1 1
+
(x
),
2 a
2a
1,
06x<a
x > a.
0,
x < 0.
1
1
, D2 [X] = 2 .
=
= m,
2
2 3
de unde = m 3, = m + 3.
Problema 3.8 O variabila aleatoare X : N (m, 2 ) poate avea parametrii m = 2, = 2
cu probabilitatea 0,4 sau m = 2, = 1 cu probabilitatea 0,6 determinati densitatea de
probabilitate.
Solutie . Folosim generalizarea formulei probabilitatii totale, din 3.2. Avem
(x2)2
0, 6 (x2)2
0, 4
f (x) = e 8 + e 2 .
2 2
2
Problema 3.9 Intr-o sectie se produc articole care corespund calitativ, daca satisfac o
anumita proprietate masurabila printr-o caracteristica numerica. Se observa unele deviatii
152
2 x2
, x>0
Z
n 2 x2
ax e
dx = 1,
axn+1 e
2 x2
dx = m
si gasim
a=
)
2n+1
1 ( n+2
2
,
=
n+1
n+1 .
m ( 2 )
( 2 )
f (t)
R
, t > ,
f (t)
1 0 f (t)dt
fA (t) =
=
P (A)
0,
t < .
Deoarece = T , rezulta
(t) =
f (t)
R
,
1 0 f (t)dt
t > 0,
0,
t < 0.
.
153
0
F (t) = fT (t t0 ) =
e(tt0 ) , t > t0
.
0,
t<0
.
p
Problema 3.16 Durata vietii unui circuit integrat normal este data de o lege exponentiala cu rata , iar a unui circuit rebut 1000. Probabilitatea de a extrage un
care are media
154
circuit integrat normal dintr-un lot este p. Gasiti probabilitatea ca alegnd un circuit la
ntamplare, acesta sa functioneze dupa t secunde. Presupunem ca fiecare este testat t
secunde. Pentru ce valoare a lui t, 99% dintre circuite sunt bune.
Solutie . Fie B evenimentul de a alege un circuit normal, R de a alege un circuit
rebut, iar C de a alege un circuit care sa functioneze dupa t secunde. Are loc, daca
folosim formula probabilitatii totale
P (C) = pet + (1 p)e1000t .
Calculam PC (B) cu formula lui Bayes si din conditia PC (B)
1
(1 p)99
t=
ln
.
999
p
0, 99, avem
Problema 3.17 Variabila aleatoare (X, Y ) are densitatea de probabilitate f (x, y). Exprimati probabilitatile urmatoarelor evenimente: 1.{X > Y },
2.{X > |Y |}
3.{|X| > Y } 4.{Y X > 1}.
Z + Z +
f (x, y)dx;
dy
Solutie 1. P ({X > Y }) =
y
Z + Z x
2. P ({X > |Y |}) =
dx
f (x, y)dy;
0
x
Z 0
Z x
Z + Z x
3. P ({|X| > Y }) =
dx
f (x, y)dy +
dx
f (x, y)dy;
Z + Z +
f (x, y)dxdy.
dx
4. P ({Y X > 1}) =
x+1
egala cu
. Pentru 6 1, integrala din definitia mediei este divergenta. Pentru
1
> 2, M [Y 2 ] =
si deci exista dispersie, iar daca 6 2 aceasta nu exista.
2
Problema 3.19 Variabila aleatoare X are densitatea de probabilitate
f (x) =
1
cos x, x ( , );
2
2 2
155
0
f (x, y) =
x 6 0 sau y 6 0,
0,
F (x, y) =
x 6 0 sau y 6 0,
2 , (x, y) D,
a
f (x, y) =
0, (x, y)
/ D;
F (x, y) =
0,
x 6 0 sau y 6 0,
xy
, 0 6 x 6 a,
a2
y
,
a
1,
si 0 6 y 6 a,
x > a si 0 < y 6 a,
0 < x 6 a si y > a,
x > 0 si y > a;
, x (0, a),
a
fX (x) =
0, x
/ (0, a);
, y (0, a)
a
fY (y) =
0, y
/ (0, a).
Problema 3.22 Functia f (x, y) este constanta n interiorul unui cerc de raza r si
nula n afara. Determinati raza r astfel ca f (x, y) sa fie o densitate de probabilitate pentru o variabila aleatoare bidimensionala (X, Y ), fX (x), fY (y), fX (x|y), fY (y|x). Calculati
Cov[X, Y ].
Solutie. Cautam densitatea de probabilitate de forma
f (x, y) =
h, x2 + y 2 < r2 ,
0, x2 + y 2 > r2 .
156
Punem conditia ca 1 =
fX (x) =
RR
q
2
2h r2 x2 , |x| < r,
0,
|x| > r;
fY (y) =
2h
0,
1
.
h
r2 y 2 , |y| < r,
|y| > r;
p
r2 y 2 ,
p
|x| > r2 y 2 ;
|y| < r2 x2 ,
|y| > r2 x2 .
RR
Avem imediat M [X] = M [Y ] = 0, D[X] = D[Y ] = 2r . M [XY ] =
xyf (x, y)dxdy = 0.
Deci Cov[X, Y ] = 0.
1
p
,
f (x, y)
=
fX (x|y) =
2 r2 y 2
fY (y)
0,
1
,
f (x, y) 2
fY (y|x) =
=
2 r x2
0,
fX (x)
|x| <
fY (y) =
fX (x) =
1
f (x, y)
,
fX (x|y) =
=
2(1 |y|)
0,
fY (y)
1
f (x, y)
,
fX (x|y) =
=
2(1 |x|)
0,
fX (x)
X
si RY nu sunt independente, dar nici corelate. M [X] = M [Y ] = 0, iar M [XY ] =
R +
+
xyf (x, y)dxdy = 0. Cov[X, Y ] = 0.
Problema 3.24 Variabila aleatoare (X, Y ) este uniform repartizata n interiorul unui
cerc de raza r = 1 cu interiorul D. Gasiti media si dispersia variabilei Z = XY .
Z Z
Z Z
1
1
1
2
Solutie. M [XY ] =
xydxdy = 0; D [XY ] =
x2 y 2 dxdy = .
8
D
D
Problema 3.25 O variabila aleatoare (X, Y ) este uniform repartizata ntr-un patrat
de latura 1. Gasiti media si dispersia variabilei XY .
157
1
Solutie. Pentru ca X si Y sunt independente M [XY ] = M (X)M (Y ) = ; D2 [XY ] =
4
1
.
144
2
Problema 3.26 Variabilele X si Y sunt legate prin Y = 2 3X si mx = 1, DX
= 4.
2
Gasiti my , DY , Cov[X, Y ], [X, Y ].
R: M [Y ] = M [2 3X] = 2 3(1) = 5;D2 [Y ] = (3)2 4 = 36. Din M [X 2 ] =
D2 [X] + M 2 [X], deducem M [X 2 ] = 5 Cov[X, Y ] = M [X(2 3X]) + 1 5 = 12
12
= 1.
[X, Y ] =
D[X]D[Y ]
Problema 3.27 Variabilele aleatoare X, Y, Z au mediile mx , my , mz si matricea de
covarianta
D[ X]
Cov[X, Y ] Cov[X, Z]
[
Cov[X, Y ]
.
D
Y
]
Cov[Y,
Z]
[
Cov[X, Z] Cov[Y, Z]
D Z]
Gasiti media si dispersia variabilei U = aX bY + cZ d, a, b, c, d IR.
R: M [U ] = a mx b my + c mz d, D2 [U ] = a2 D[ X] + b2 D[ Y ] + c2 D2 [Z]
2 a b Cov[X, Y ] + 2 a c Cov[X, Z] 2 b c Cov[Y, Z].
Problema 3.28 X, Y sunt variabile aleatoare independente X : N (1, 4), Y : U (0, 2).
Gasiti M [X + Y ], M [XY ], M [X 2 ], M [X Y 2 ], D2 [X + Y ], D2 [X Y ].
R: M [X + Y ] = 2, M [XY ] = M [X]M [Y ] = 1, M [X 2 ] = 5, M [X Y 2 ] =
1
13
, D2 [(X + Y )] = D2 [(X Y )] = .
3
3
Problema 3.29 Densitatea de probabilitate a unei variabile aleatoare bidimensionale
normale este
1
1 1.28
((x2)2 1,2(x2)(y+3)+(y+3)2 ) .
f (x, y) =
e
1, 6
Calculati covarianta variabilelor marginale.
R: Cov[X, Y ] = 0, 6.
Problema 3.30 Un voltmetru nregistreaza cea mai mare dintre doua tensiuni V1 , V2 .
Variabilele V1 , V2 sunt independente si au aceeasi densitate f (v). Gasiti media variabilei
V = max{V1 , V2 }.
Z +
Z v1
Z +
Z v2
Solutie. m =
x1 dv1
f (v2 )dv2 +
v2 f (v2 )dv2
f (v1 )dx1 .
158
Capitolul 4
Probleme la limit
a n teoria
probabilit
atilor
Baza teoretica a statisticii matematice, care confera garantii asupra valabilitatii studiului statistic al fenomenelor aleatoare, se sprijina pe proprietatile de convergenta ale
sirurilor de variabile aleatoare. Prezentam principalele tipuri de convergenta si unele
proprietati ale sirurilor de variabile aleatoare referitoare la acestea.
4.1
Convergenta n probabilitate
{Xn } X) daca
> 0 : lim P ({e E | |Xn (e) X(e) | > }) = 0
(4.1)
(4.2)
sau, echivalent,
n
Demonstratie. Aratam ca daca exista doua variabile aleatoare X si Y astfel ncat {Xn }
prob
Probleme la limita
160
de aici rezulta
+P ({ | Xn X | > }).
2
prob
prob
+ lim P ({ | Xn Y | > }) = 0
n
2
deci P ({| X Y | > }) = 0.
prob
prob
prob
prob
T
inand seama ca {Xn } X si {Yn } Y si trecand la limita obtinem
lim P ({|(aXn bYn ) (aX + bY )| > }) = 0
n
prob
4.2
Probleme la limita
161
atunci
(4.3)
prob
{Yn } M.
Demonstratie. Observam ca pentru orice > 0
D2 [Yn ]
n2
=
.
2
2
(4.4)
(4.5)
Sn
Prima formulare: Daca A un eveniment caracterizat prin P (A) = p 6= 0 si
frecventa
n
relativ
a de realizare a evenimentului A n primele n probe ale unui sir infinit de probe
independente, atunci
Sn
> 0 : lim P ({| p| > }) = 0
n
n
sau, echivalent,
Sn
> 0 : lim P ({| p| 6 }) = 1.
n
n
A doua formulare: Daca {Xn }nIN un sir de variabile aleatoare independente astfel
n
1X
nc
at Xn : Bi(n, p), n IN , atunci sirul de variabile aleatoare {
Xk }nIN converge n
n k=1
n
1X
prob
probabilitate catre p, adica {
Xk } p.
n k=1
Probleme la limita
162
Demonstratie. Demonstram teorema lui Bernoulli sub cea de-a doua forma. Notam
n
1X
Xk
Yn =
n k=1
si tinem seama ca
M [Yn ] =
n
n
1X
1
1 X 2
npq
pq
M [Xk ] = np = p, D2 [Yn ] = 2
D [Xk ] = 2 = ,
n k=1
n
n k=1
n
n
deci lim M [Yn ] = p si lim D2 [Yn ] = 0, ceea ce arata ca ipotezele Teoremei 4.2.1 sunt
n
n
n
1X
prob
satisfacute, deci {
Xk } p.
n k=1
Observatii.
1. Prima formulare a teoremei lui Bernoulli constituie justificarea teoretica a apropierii
facute ntre conceptele de frecventa relativa si probabilitate a unui eveniment. Ea
exprima faptul ca pentru siruri foarte mari de probe orice diferenta sensibila ntre
frecventa relativa a unui eveniment si probabilitatea sa devine foarte improbabila.
Deci convergenta frecventelor relative catre probabilitatea evenimentului nu trebuie
nteleasa ca o convergenta numerica obisnuita; nu rezulta din teorema de mai sus
si nici nu este intuitiv acceptabila ideea ca odata cu cresterea numarului de probe
valorile frecventelor relative sunt, obligatoriu, mai apropiate de probabilitate.
2. Cele doua formulari decurg una din cealalta daca tinem seama ca frecventa absoluta
de realizare a lui A n n probe. Fie Xn o variabila aleatoare repartizata Bi(n, p).
n
n
X
Sn
1X
Xk , atunci
Daca notam Sn =
Xk si deci
=
n
n
k=1
k=1
lim P ({|
Sn
p| > }) = 0
n
1X
prob
{
Xk } p.
n k=1
3. Rezultatul teoremei constituie justificarea teoretica a definitiei notiunii de estimatie a unui parametru al unei repartitii, notiune de mare importanta n statistica
matematica.
Teorema 4.2.3 (Cebasev) Daca (Xn )nIN este un sir de variabile aleatoare independente
dou
a cate doua, avand dispersiile marginite de o aceeasi constant
a
D2 [Xn ] 6 c2 , n IN,
Probleme la limita
163
atunci
> 0 : lim P ({|
n
1X
1X
Xk
M [Xk ]| > }) = 0
n k=1
n k=1
sau, echivalent,
1X
1X
> 0 : lim P ({|
Xk
M [Xk ]| 6 }) = 1,
n
n k=1
n k=1
adic
a are loc convergenta n probabilitate a sirul de variabile aleatoare,
n
1X
prob
(Xk M [Xk ])} 0.
n k=1
1X
Demonstratie. Daca Yn =
(Xk M [Xk ]) atunci
n k=1
n
1X
1X
1X
(Xk M [Xk ])] =
M [Xk ]
M [Xk ] = 0
M [Yn ] = M [
n k=1
n k=1
n k=1
si deoarece variabilele aleatoare Xn sunt independente doua cate doua, rezulta (Xk M [Xk ])
sunt independente doua cate doua si deci
D2 [Yn ] = D2 [
n
n
n
1 X 2
1X 2
1X
(Xk M [Xk ])] = 2
D [Xk M [Xk ]] =
D [Xk ].
n k=1
n k=1
n k=1
n
n
n
1X
1X
1 X 2
nc2
c2
Xk
M [Xk ]| > }) 6 2 2
D [Xk ] < 2 2 = 2
n k=1
n k=1
n k=1
n
n
si deci
lim P ({|
1X
1X
c2
= 0.
Xk
M [Xk ]| > }) 6 lim
n n2
n k=1
n k=1
0, n ,
Probleme la limita
164
1X
1X
> 0 : lim P ({|
Xk
M [Xk ]| 6 }) = 1.
n
n k=1
n k=1
Aplicam inegalitatea lui Cebasev pentru variabilele aleatoare:
Y =
n
n
n
X
X
X
1
Xi /n, D2 [Y ] = D2 [ Xi /n] = 2 D2 [
Xi ] 0, n .
n
i=1
i=1
i=1
n
1 1 2X
D
[
Xi ].
2 n2
i=1
n
1 2X
D
[
Xi ] 0, daca n . Trecand la limita n inegalitatea precedenta,
n2
i=1
obtinem afirmatia teoremei.
Dar
Observatia 4.2.1 In cazul particular cand variabilele aleatoare sunt independente, conditia din enunt se scrie:
n
X
D2 [Xi ]
i=1
0, n .
n
Teorema 4.2.5 (Hincin) Daca {Xn }nIN este un sir de variabile aleatoare independente
dou
a cate doua urmand aceeasi repartitie si avand dispersii finite, atunci
n
1X
Xk M | > }) = 0.
lim P ({|
n
n k=1
unde M = M [Xn ], n IN.
Demonstratie. Daca variabila aleatoare {Xn }nIN urmeaza aceeasi repartitie, rezulta
D2 [Xn ] = 2 , n IN , ceea ce implica satisfacerea ipotezelor Teoremei lui Cebasev.
Observatie. Acest rezultat fundamenteaza teoretic procesul uzual de aproximare a
mediei caracteristicii studiate a unei populatii statistice prin media atitmetica a valorilor
observate. Intr-adevar, daca X1 , X2 , . . . Xn , . . . sunt privite ca valori potentiale ale unei
variabile aleatoare X obtinute printr-un sir de probe independente, atunci teorema arata
ca media aritmetica a acestora converge catre M = M [X].
Ca un caz particular al teoremei lui Cebasev se obtine teorema lui Poisson.
Teorema 4.2.6 (Poisson) Fie A un eveniment a carui probabilitate de realizare variaza
pe parcursul unui sir de probe independente, astfel nc
at la proba de rang k, P (A) =
Sn
frecventa de realizare a evenimentului A n primele n probe.
pk , k = 1, 2, . . . si fie
n
Atunci
Sn p1 + p2 + . . . + pn
lim P ({ |
| > }) = 0.
n
n
n
Probleme la limita
165
Sn
1X
fn (A) =
=
Xk .
n
n k=1
Deoarece X1 , X2 , . . . Xn , . . . sunt variabile aleatoare independente si deoarece
1
M [Xk ] = pk , D2 [Xk ] = M [Xk2 ] M [Xk ]2 = pk p2k = pk (1 pk ) 6 ,
4
rezulta ca sirul {Xn }nIN verifica ipotezele Teoremei lui Cebasev si deci
lim P ({ |
Sn p1 + p2 + . . . + pn
| > }) =
n
n
n
1X
1X
Xk
M [Xk ] | > )} = 0.
= lim P ({ |
n
n k=1
n k=1
4.3
Aproxim
ari pentru repartitii discrete
n
X
k=1
o variabila aleatoare binomiala, Bi(n; p), pentru valori mari ale lui n poate fi aproximata
cu o variabila aleatoare Poisson, daca p este suficient de mic astfel ncat np = =
constant. Vom arata ca o variabila aleatoare binomiala, Bi(n; p) poate fi aproximata cu
o variabila aleatoare repartizata normal pentru orice valoare fixata a lui p si pentru n
suficient de mare.
De exemplu, aruncam un ban de 100 de ori. Ne intereseaza probabilitatea ca sa
obtinem fata care contine banul de 50 de ori. Raspunsul
50
p = C100
1
2100
100! 1
50!50! 2100
Probleme la limita
166
Problema care se pune este de a gasi o alta functie h(n) care sa constituie o buna
aproximare n pentru n! (o buna aproximare n sensul ca n! si h(n) sa creasca aproape la
n!
fel de repede odata cu n, sau |n! h(n)| sa fie mic cand n creste sau lim
= 1).
n h(n)
Definitia 4.3.1 Fie f, g : IR IR. Spunem ca f si g sunt asimptotic egale si notam
f g daca
f (n)
lim
= 1.
n g(n)
Relatia f si g sunt asimptotic egale este o relatie de echivalenta pe multimea functiilor
neidentic nule. Proprietatile de reflexivitate, simetrie si tranzitivitate rezulta imediat.
De exemplu, un polinom n variabila n este asimptotic egal cu termenul sau dominant.
In cele ce urmeaza vom ncerca sa gasim o functie h(n) astfel ncat
n!
= 1.
n h(n)
lim
Expresia unei astfel de functii este sugerata de formula lui Stirling (vezi Anexa 2)
n
h(n) = ( )n n 2.
e
Pare mai neplacut sa calculam h(n) decat n!, dar este mult mai usor deoarece puterile
sunt mai lesne de calculat. Sa aplicam n cazul exemplului dat
50
p = C100
1
100! 1
=
,
200
50!50! 2100
)100 100 2 1
( 100
100 100 10
1
2100 1
e
p
=
(
)
=
=
2100
50
)100 50 2
( 50
50 2 2100
5 2 2100
e
1
= = 0, 0797884 0, 08.
5 2
Teorema 4.3.1 (teorema locala Moivre-Laplace).
Presupunem 0 < p < 1 si q = 1 p iar
k np
, 0 6 k 6 n.
xn,k =
npq
(4.6)
Dac
a M o constant
a pozitiv
a arbitrar
a fixata, atunci pentru acei k pentru care
|xn,k | 6 M
avem
Cnk pk q nk
xn,k
1
e 2 .
2npq
(4.7)
Probleme la limita
167
Demonstratie. Din
k np
xn,k =
npq
npq
k
=1+
xn,k 1 si deci k np,
np
np
(4.8)
npq
nk
=1
xn,k 1 si deci n k nq.
nq
nq
Folosind formula lui Stirling putem scrie
r
( ne )n n 2
1
n
k k nk
k nk
(n, k),
p q
Cn p q
k
nk nk
k
k(n k) 2
( e ) k 2( e )
n k 2
unde
np
nq nk
nn
pk q nk = ( )k (
) .
n
nk
k (n k)
k
nk
Deoarece k np si n k nq rezulta ca
(n, k) =
Cnk pk q nk
1
(n, k).
2npq
Demonstram n continuare ca
(n, k) e
x2n,k
2 .
x2
xn
+ . . . + (1)n1 + . . .
2
n
si obtinem
k npqxn,k
npqxn,k
np k
np
ln( ) = k ln( ) k ln(
) = k ln(1
)=
k
k
k
k
npq
npq
= k(
xn,k 2 x2n,k . . .),
k
2k
n k + npqxn,k
nq nk
nq
ln(
)
= (n k) ln(
) (n k) ln(
)=
nk
nk
nk
npqxn,k
npq
npq
= (n k) ln(1 +
) = (n k)(
xn,k
x2 + . . .),
nk
nk
2(n k)2 n,k
deoarece
npq
npq
|
xn,k | < 1 si |
xn,k | < 1
k
nk
sunt safisfacute pentru n suficient de mare pentru care |xn,k | < M . Deci
npq
np k
nq nk
npq
ln (n, k) = ln( ) + ln(
)
k(
xn,k 2 x2n,k . . .)+
k
nq
k
2k
(4.9)
Probleme la limita
168
npq
npq
xn,k
x2 + . . .) =
nk
2(n k)2 n,k
npq 2
npq
= ( npqxn,k
xn,k . . .) + ( npqxn,k
x2 + . . .) =
2k
2(n k) n,k
+(n k)(
npq 2
1
1
n2 pq
xn,k (
) + ... =
x2 + . . .
2
k nk
2k(n k) n,k
Justificam de ce neglijam termenii din dezvoltare de grad mai mare decat doi pentru
n . Cand n este suficient de mare, cele doua cantitati din (4.9) sunt mai mici decat
2/3 si prin urmare Lema A2.1 din Anexa 2 este aplicabila si contributia acestora la cele
doua serii este marginita de
npq
npq
3
k|
xn,k | = (n k)|
xn,k |3 .
k
(n k)
Deoarece pq < 1 si |xk | 6 M aceasta nu depaseste
2
n3 3
n2
M +
M 3,
2
k
(n k)2
care n mod evident tinde la zero cand n datorita relatiilor (4.8). Astfel, folosind
aceste relatii, rezulta
x2n,k
n2 pq
ln (n, k)
xn,k =
.
2npnq
2
Aceasta este echivalenta cu
x2n,k
(n, k) e 2
si de aici rezulta (4.7).
Observatia 4.3.1 Aproximarea este utilizata daca n este suficient de mare astfel ncat
np > 5 si n(1 p) > 5.
4.4
Probleme la limita
169
npq
conform relatiei (4.6). Atunci probabilitatea evenimentului din dreapta formulei (4.10)
este
X
X
P ({Sn = k}) =
Cnk pk q nk .
a<xn,k <b
a<xn,k <b
T
inand seama de faptul ca
xn,k+1 xn,k =
obtinem
k + 1 np k np
1
=
,
npq
npq
npq
1 X x2
P ({Sn = k})
e 2 (xn,k+1 xn,k ).
K
a<x <b
<b
X
a<xn,k
(4.11)
n,k
k=j
unde
(x) =
1 x2
e 2
K
Rb
Aceasta este suma Riemann pentru integrala definita a (x)dx. Facand n , divizarea devine din ce n ce mai fina si suma converge la integrala data. Ramane de
determinat constanta K. In formula
Z b
x2
1
Sn np
6 b}) =
(4.12)
lim P ({a 6
e 2 dx
n
npq
2 a
facem a = b si atunci
Sn np
1
lim P (b <
6 b) =
n
npq
K
b
b
x
e 2 dx.
(4.13)
Probleme la limita
170
Daca notam
Sn np
X=
,
npq
atunci
M [X] = 0, D2 [X] = 1
si obtinem
Sn np
1
P (|
| 6 b) > 1 2 .
npq
b
(4.14)
K=
x2
e 2 6 1
x2
e 2 dx =
2,
2.
rep
Probleme la limita
171
prob
rezulta
F (x0 ) 6 lim Fn (x0 ).
n
Analog
F (x0 + ) > lim Fn (x).
n
Rezulta
lim Fn (x0 ) = F (x0 ).
0 daca x 6 0
1
FX (x) = FY (x) =
daca 0 < x 6 1
2
1 daca x > 1
si |Y X| = |1 2X| = 1 indiferent de valoarea variabilei aleatoare X. Definim sirul de
variabile aleatoare {Xn }nIN unde Xn = Y . Rezulta ca {Xn }nIN converge n repartitie
catre X. Deoarece |Xn X| = 1 rezulta ca {Xn }nIN nu converge n probabilitate catre
X. Exista totusi un caz particular n care se poate stabili si legatura inversa.
Probleme la limita
172
rep
prob
lim Fn (c + 0) = F (c + 0) = F (c ),
si deci
lim P ({|Xn C| > }) = 0
Xj =
Sn M [Sn ]
1 X
Xj M [Xj ]
, Sn =
=
X .
D[Xj ]
D[Sn ]
n j=1 j
(4.15)
Probleme la limita
173
Observatie. Teorema poate fi extinsa n urmatorul sens: fie {Xn }nIN un sir de
variabile aleatoare independente avand aceeasi repartitie care nu trebuie sa fie specificata.
Trebuie, n schimb, ca M [Xj ] = m < si D2 [Xj ] = 2 < . Teorema lui Laplace are
loc si n aceste conditii.
Teorema 4.4.4 Pentru sumele Sn n conditiile generalizate de mai sus si pentru a < b
are loc
Z b
x2
Sn nm
1
Sn
k
=
unde Sn = X1 + X2 + . . . + Xn , Xi : Bi(n, p), i = 1, n,
n
n
Probleme la limita
174
M[
P ({|
Sn
Sn
pq
] = p, D2 [ ] = ,
n
n
n
D2 [ Snn ]
Sn
pq
p|}) > 1
= 1 2,
2
n
Sn
pq
p| > }) < 2 < ,
n
n
fiind dat, relatia ne permite sa determinam o margine inferioara pentru volumul selectiei
n, deoarece
pq
pq
pq
1
< implica n > 2 si max 2 =
,
2
p
n
42
P ({|
adica
1
.
42
Aceasta margine inferioara este mai mult decat este necesar pentru a putea aplica Teorema
Moivre-Laplace.
Sn
Sn np
P ({| p| > }) = P ({|
| > }) =
n
n
r
r
Sn np
n
n
Sn np
= P ({|
|>
}) = 1 P ({|
|6
}) =
npq
pq
npq
pq
r
r
r
r
n
n
n
n
) F (
)] = 1 0, 5 (
) + 0, 5 (
)
= 1 [F (
pq
pq
pq
pq
r
n
= 1 2(
)<
pq
r
n
Notam z =
; problema este sa se determine z astfel ncat 1 2(z) < adica
pq
r
1
n
1
(z) =
. Determinam z0 din relatia (z0 ) =
si n astfel ncat
= z.
2
2
pq
z 2 pq
z 2 pq
z2
Rezulta n = 2 si deci max 2 = 2 , adica
4
n>
n>
z2
.
42
1
= 125000.
4 0, 05 (0, 02)2
(1, 96)2
= 2401.
4(0, 02)2
1 0, 05
= 0, 475, adica z > 1, 96 si deci
2
Probleme la limita
175
Exemplul 4.4.2 O tensiune constanta, dar necunoscuta, trebuie sa fie masurata. Fiecare masuratoare Xj se face cu o eroare Nj fata de valoarea exacta v. Eroarea Nj are media
egala cu zero si dispersia egala cu 1 microvolt.
Xj = v + Nj
Presupunem ca eroarea este o variabila aleatoare independenta. Cate masuratori sunt
necesare ca media masuratorilor sa fie cu cel mult = 1 mai mare decat valoarea exacta
cu o probabilitate de 0,99?
Fiecare masuratoare Xj are v si dispersia 1, astfel ncat folosind legea numerelor mari
obtinem:
1
1
1 2 = 1 = 0, 99.
n
n
Aceasta implica n = 100. Astfel daca repetam masuratorarea de 100 de ori si calculam
media n mod normal n 99% din situatii media obtinuta va diferi cu cel mult 1 microvolt
de valoarea exacta.
Exemplul 4.4.3 Pentru a estima probabilitatea unui eveniment A, se efectueaza un sir
de experiente Bernoulli si se observa frecventa relativa a evenimentului A. De cate ori
trebuie repetat evenimentul A astfel ncat cu o probabilitate de 0, 95 frecventa relativa sa
difere de p = P (A) cu 0, 01?
Fiind experiente Bernoulli, media m = p si dispersia D2 [X] = p(1 p). Evident ca
p(1 p) 6 1/4 pentru 0 6 p 6 1. Atunci rezulta
P (|fn (A) p| > ) 6
D2 [X]
1
6
.
n2
4n2
Pentru = 0, 01 obtinem
1
4n2
Rezolvam si obtinem n = 50000. Aceasta evaluare s-a obtinut utilizand inegalitatea lui
Cebasev care da niste evaluari destul de grosiere. Vom obtine o alta evaluare utilizand
Sn
Teorema Moivre-Laplace. Deoarece fn (A) =
obtinem:
n
r
Sn np
Sn
n
| < }) = 1 2(
)
P ({| p| < }) = P ({|
n
n
p(1 p)
1 0, 95 =
Probleme la limita
176
Exemplul 4.4.4 Sa se determine numarul minim de aruncari ale unei monede care sa
asigure cel putin cu o probabilitate de 0,9 ca diferenta dintre frecventa relativa obtinuta
si probabilitatea de aparitie a unei fete sa fie mai mica n valoare absoluta decat 0,2.
Folosind Teorema 4.2.2 obtinem,
1
P ({|fn (A) | < 0, 2}) > 0, 9.
2
(4.17)
1
1
=
= 62, 5, n > 63.
2
4
4 0, 1 (0, 2)2
S63 1
| < 0, 2}) > 0, 9.
63
2
Putem determina intervalul n care variaza frecventa relativa astfel ncat (4.17) sa fie
satisfacuta si deci frecventa absoluta pentru un anumit n 6 63,
|
k 1
k
| < 0, 2 0, 3 < < 0, 7 n 0, 3 < k < n 0, 7.
n 2
n
Daca n = 63 rezulta 18 < k < 44. Deci din 63 aruncari, numarul aruncarilor reusite este
cuprins ntre 18 si 44, atunci (4.17) este satisfacuta, adica am determinat intervalul n
care se situeaza numarul cazurilor favorabile aparitiei unei aceleiasi fete, aceasta avand
loc cu probabilitatea de cel putin 0,9.
Exemplul 4.4.5 Un zar se arunca de 1200 de ori. Sa se determine probabilitatea minima
ca numarul de aparitii ale fetei cu i puncte, i fixat, sa fie cuprins ntre 150 si 250. Dar
ntre 100 si 250 ?
Constatam ca p =
|
1
si n = 1200. Deci
6
1
1
k
1
k
| <
<
< +
1200 6
6
1200
6
echivalent cu
200 1200 < k < 200 + 1200 .
Sa cercetam daca aceasta situatie este compatibila cu datele problemei, adica daca sistemul
200 1200 = 150,
200 + 1200 = 250,
are solutie. Se obtine =
1
50
= . n al doilea caz, sistemul devine
1200
24
200 1200 = 100,
200 + 1200 = 250,
Probleme la limita
177
1
1
1
si este incompatibil, obtinand, din fiecare ecuatie, 1 =
si 2 =
. Pentru 1 =
12
24
12
1
obtinem intervalul (150, 250). Cum
obtinem intervalul (100, 300), iar pentru 2 =
24
P ({100 <
alegem =
Sn
Sn
1
< 250}) > P ({150 <
< 250}) > 1 ,
1200
1200
24
1
si deci
24
=
1
1
= 1
= 0.12.
2
4 n
4 242 1200
Deci, cu probabilitatea de cel putin 0,88, numarul de aparitii ale unei fete a zarului cu
i puncte este n intervalul (150, 250) daca aruncam zarul de 1200 ori. Pe de alta parte,
tinand seama de regula celor 3 de la repartitia normala,
Sn np
P ({3 <
6 3}) = 0, 9973,
npq
ceea ce nseamna ca probabilitatea ca numarul de aparitii ale unei fete a zarului sa fie n
intervalul (161, 239) este de 0.9973. Se poate calcula exact probabilitatea ca numarul de
aparitii ale unei fete sa fie cuprins ntre 100 si 250. Deorece np = 200 si npq = 12, 91
obtinem
P ({100 < Sn < 250}) = P ({100 < Sn np < 50}) =
= P ({
100
Sn np
50
<
<
}) =
12, 91
npq
12, 91
Sn np
< 3, 873}) = F (3, 873) F (7, 75)
= P ({7, 75 <
npq
si tinand seama de Relatia (3.14) din Capitolul 3,
P ({100 < Sn < 250}) = (3, 873) + (7, 75) =
= 0, 499946 + 0, 499997 = 0, 9999943,
rezultat n concordanta cu cel anterior.
Exemplul 4.4.6 Sa se calculeze probabilitatea opririi simultane a trei masini din zece
care lucreaza independent ntr-o fabrica n cazul n care probabilitatea defectarii unei
masini este p = 0, 2.
Numarul de masini defecte este o variabila aleatoare cu repartitie binomiala:
k
, k = 1, 10
X:
Cnk (0, 2)k (0, 8)10k
Se cere probabilitatea
3
P10,3 = C10
(0, 2)3 (0, 8)7 = 0, 2.
Probleme la limita
178
Folosind Teorema 4.3.1 putem aproxima
3 10
x10,3 = q 3 = 0, 21
10 12 12
si obtinem
1
3
(0, 2)3 (0, 8)7 q
C10
2 12 12 10
(0,21)2
2
0, 246.
8 25 0, 2
= 1, 5,
25 0, 2 0, 8
(1,5)2
1
e 2 = 0, 06475.
2 0, 2 0, 8
Diferenta
0, 06475 0, 06234 = 0, 00241
de ordinul miimilor este considerata satisfacatoare din punct de vedere practic.
Exemplul 4.4.7 O centrala electrica trebuie sa deserveasca o retea de 10000 de becuri
medii. Probabilitatea aprinderii unui bec ntr-o noapte de iarna, care constituie perioada
de varf a consumului de energie electrica, este de 0,7. Sa se faca analiza economica
necesara proiectarii centralei.
Pentru a determina capacitatea centralei pot fi adoptate criterii diferite:
sa construim centrala astfel ncat n orice moment cele 10000 de becuri sa functioneze;
sa se determine capacitatea centralei astfel ncat cu o probabilitate suficient de mare,
consumul obisnuit sa fie asigurat cu energia necesara bunei functionari.
Fie X o variabila aleatoare care ia ca valori numarul de becuri care pot fi aprinse ntr-o
noapte. Aceasta variabila aleatoare are o repartitie binomiala cu
n = 10000, p = 0, 7, M [X] = np = 7000,
D2 [X] = npq = 2100, D[X] = 45, 83 46,
Probleme la limita
179
2100
1
k2 1
=
1
=
.
k 2 2100
k2
k2
Pentru k = 2 obtinem
3
= 0, 75.
4
Daca centrala se construieste pentru o capacitate de 7092 becuri atunci, cu o probabilitate
de cel putin 0,75, functionarea ei este normala. Rezultatul nu este convenabil. La fel,
P ({|X 700| 6}) >
8
= 0, 89;
9
15
= 0, 94.
16
Daca construim centrala pentru o capacitate de 7184 becuri medii atunci, cu probabilitatea
de cel putin 0,94, functionarea va fi normala.
Sa determinam capacitatea centralei astfel ncat cu o probabilitate de
0,99 functionarea sa fie normala. Folosim Teorema Moivre-Laplace cu a = .
k = 4, P ({|X 7000| 6 184}) >
Sn np
P ({
6 b}) = 0, 999 = F (b) = 0, 5 + (b)
npq
0, 5 + (b) = 0, 999 (b) = 0, 499 b = 3, 09
S 10000 0, 7
n
6 3, 09
10000 0, 7 0, 3
Sn = 7142 se numeste coeficient de simultaneitate si este indicat sa se faca constructia
centralei pentru el. Daca centrala se construieste pentru 10000 de becuri medii, cu o
probabilitate de 0.99, un numar de 10000-7142=2858 becuri raman nefolosite.
Exemplul 4.4.8 O fabrica are n stoc 1660 tone dintr-o materie prima. stiind ca zilnic se
consuma n medie 13,33 t cu abaterea 1,2 t, cu ce probabilitate aceasta cantitate ajunge
pentru 4 luni.
Notam cu Xi variabila aleatoare care ia ca valori consumul zilei i, i = 1, 120. Avem
M [Xi ] = 13, 33, D[Xi ] = 1, 2.
In 120 de zile se consuma X =
120
X
i1
X 1599, 6
1660 1599, 6
<
}) = 0, 5 + (4, 6) = 0, 999.
13, 1
13, 1
Se poate deci presupune ca aproape sigur cantitatea de materie prima este suficienta.
Probleme la limita
180
Exemplul 4.4.9 O sursa radioactiva este modelata dupa o lege Poisson si emite 30
particule/ora. Care este probabilitatea ca n 10 minute sa fie emise cel mult 10 particule
?
Notam X =
10
X
i=1
10
X
M [Xi ] = nM [Xi ]
i=1
si deci M [Xi ] =
si
n
= D2 [X] =
10
X
i=1
X n
10 5
10
P ({X 6 10}) = P ({ q n 6 }) = 0, 5 + ( ) = 0, 98713.
5
n n
Exemplul 4.4.10 Fie {Xn }nIN un sir de variabile aleatoare independente
!
0
n
n
1
2 1
, P ({X1 = 0}) = 1, n = 2, 3 . . . .
Xn :
1
n
n n
Sa se arate ca {Xn }nIN se supune Legii numerelor mari.
Verificam conditiile Teoremei 4.2.1.
M [Xn ] = 0, D2 [Xn ] = M [Xn2 ] (M [Xn ])2 ,
!
0
1
2 2
Xn2 :
, M [Xn2 ] = 2, D2 [Xn ] = 2
1
n n
prob
1X
Yn =
Xk ,
n k=1
atunci
n
2(n 1)
1
2n 1
1 X 2
D [Xk ] =
+ 2 =
0
M [Yn ] = 0, D [Yn ] = 2
2
n k=1
n
n
n2
2
deci
lim P ({|Yn M [Yn ]| < }) = 1
prob
{Yn } 0.
Probleme la limita
4.5
181
Leg
atura dintre convergenta sirurilor functiilor
de repartitie si convergenta sirurilor functiilor caracteristice
IR
IR
Demonstratie. Fie M = sup |f (x)| si fie a, b puncte de continuitate ale lui F ncat
xIR
F (a) 6 si 1 F (b) 6 .
Deoarece pe un interval nchis [a, b] orice functie continua este si uniform continua, alegem
punctele de continuitate ale lui F , xk cu 0 6 k 6 s astfel ncat
a = x0 < x 1 < . . . < x s = b
si
|f (x) f (xk )| 6 , x [xk , xk+1 ], 0 6 k 6 s 1.
Introducem functia auxiliara de salturi f definita astfel:
f (xk ), daca xk 6 x < xk+1 ,
f (x) =
0,
daca x < x0 , x > xs ,
0 6 k 6 s 1.
s1
X
k=0
Z
f (x)dFn (x) = lim
lim
IR
s1
X
s1
X
k=0
Z
f (xk )(F (xk+1 ) F (xk )) =
f (x)dF (x),
IR
k=0
deci
Z
f (x)dFn (x) =
lim
IR
f dF (x).
IR
(4.18)
Probleme la limita
182
De asemenea avem
Z
+
Z
|f (x)|dF (x) +
Z
6M
|f (x)|dF (x) 6
b
dF (x) +
dF (x) =
b
(4.19)
IR
(4.20)
IR
IR
IR
f (x)|dF (x) + |
IR
f (x)dFn (x)
IR
Probleme la limita
183
1,
daca x 6 x0 ,
x x
0
, daca x0 6 x 6 x0 ,
f1 (x) =
0,
daca x > x0 ,
1,
daca x 6 x0 ,
x0 x
1
, daca x0 6 x 6 x0 + ,
f2 (x) =
0,
daca x > x0 + .
Avem, evident,
Z
x0
x0 +
f2 (x)dF (x) 6
IR
Z
Z
Z
IR
IR
f1 (x)dFnk (x) 6
Z
f2 (x)dFnk (x) >
IR
|
IR
Z
f2 (x)dFnk (x)
IR
Probleme la limita
184
Teorema 4.5.3 Daca sirul {Fn } de functii de repartitie converge n repartitie catre functia F n toate punctele de continuitate ale lui F , atunci sirul {n } al functiilor caracteristice corespunz
atoare converge (uniform pe orice interval marginit) la functia caracteristic
a
corespunz
atoare lui F .
Demonstratie. Deoarece
n (t) =
IR
eitx dF (x)
IR
si functia eitx este continua si marginita pe IR. Conform Teoremei 4.5.2 rezulta
lim n (t) = (t)
|
(t)dt| > 1 > + .
(4.21)
2
2
2
De asemenea putem alege x0 >
ceea ce este posibil deoarece Fnk este o functie de repartitie. Deoarece nk este o functie
caracteristica,
Z Z
Z
[
eitx dt]dFnk (x).
nk (t)dt =
Z
Dar |
IR
eitx dt| 6 2 deoarece |eitx | = 1, iar pe de alta parte, calculand efectiv aceasta
integrala,
1
1
2
eitx = eitx | = [ei x ei x ] = sin( x).
ix
ix
x
Probleme la limita
185
Z
nk x(t)dt| 6 |
Z
Z
[
+|
x>x0
Z
[
|x| x0
eitx dt <
2
.
x0
2
eitx dt]dFnk (x)| < 2 k + .
x0
Impartind prin 2
1
|
2
nk (t)dt| < k +
1
1
<+ +
<+ ,
x0
4 4
2
IR
IR
4.6
Deoarece variabilele aleatoare sunt functii definite pe spatiul de selectie (cu proprietati
suplimentare) putem vorbi de covergenta punctuala a unui sir de variabile aleatoare
{Xn }nIN catre variabila aleatoare X, ntelegand prin aceasta ca sirul numeric de variabile
aleatoare {Xn (e)}nIN , e E converge catre X(e).
Definitia 4.6.1 Sirul de variabile aleatoare {Xn }nIN converge aproape sigur c
atre varia.s.
abila aleatoare X (notat {Xn }nIN X) daca multimea evenimentelor n care {Xn }nIN
converge punctual la X formeaz
a un eveniment de probabilitate 1,
P ({Xn X}) = 1,
(4.22)
echivalent cu
P ({Xn X}) = 0.
Observatia 4.6.1 Convergenta aproape sigura se mai numeste convergenta tare.
Teorema 4.6.1 Daca pentru orice r IN are loc
1
P ({|Xn X| > }) <
r
n=1
a.s.
(4.23)
Probleme la limita
186
Demonstratie. Fie
Arn
= {e E, |Xn X| >
1
}
r
si
Bnr
k=1
P (Bnr ) 6
P (Arn+k ) =
k=1
1
P ({|Xl X| > })
r
l=n+1
si cum seria din (4.23) este convergenta, rezulta ca restul seriei converge la zero si deci
lim P (Bnr ) = 0.
(4.24)
Fie B r = B 1
B2
B3
. . . si cum P (B) 6
r=1
a.s.
P ({|
n=1
Sn
1
p| > })
n
r
(4.25)
4.7
1
M [(X M [X])4 ].
4
Convergenta n medie
Definitia 4.7.1 Sirul de variabile aleatoare {Xn }nIN converge n medie de ordinul r
c
atre variabila aleatoare X daca exista momente absolute M [|Xn |r ], n IN si M [|X|r ] si
dac
a
lim M [|Xn X|r ] = 0,
n
Probleme la limita
187
Teorema 4.7.1 Daca sirul de variabile aleatoare {Xn }nIN converge n medie de ordinul
r c
atre variabila aeatoare X atunci converge n probabilitate catre X.
Demonstrate. Folosim inegalitatea analoga inegalitatii lui Cebasev, dar pentru momentul
centrat de ordin r, Relatia (3.41):
P ({|Xn X| > }) 6
M [|Xn X|r ]
r
{Xn }nIN X
prob
rep
= {Xn }nIN
r
X = {Xn }nIN X .
{Xn }nIN X
Probleme la limita
188
4.8
Probleme propuse
1
2
1
1
1
, k = 1, n, P (Xn = 0) = 1 (1 + 3 + 3 + . . . + 3 ).
3
3k
3
2
3
n
n
1
3n3
M [Xn ] = 0, n = 1, n
D2 [Xn ] = M [Xn2 ] =
n
n
X
1
2X1
2
k2 3 =
< (1 + ln n).
3k
3 k=1 k
3
k=1
1 1
1
+ + . . . + = ln n + C + n , lim n = 0
n
2 3
n
iar C este constanta lui Euler cu C 0.577. Vom aplica Teorema lui Markov:
n
X
n
1 2X
D [ Xi ] =
n2
i=1
D2 [Xi ]
i=1
n2
<
1 2n
(1 + ln n),
n2 3
Probleme la limita
189
n
1 2X
2
D [ Xi ] <
(1 + lnn) 0, n .
2
n
3n
i=1
Problema
4.4
Sn 4500
190
Probleme la limita
Capitolul 5
Procese stochastice
In studiul unor probleme fizice sau tehnologice apar fenomene care se desfasoara n
timp si care se numesc procese. Sa dam cateva exemple.
1. In modelul atomului de hidrogen, datorat lui Bohr, electronul se poate plasa pe
una din orbitele admisibile; la un moment dat t, definim variabila aleatoare X(t), care ia
valoarea i, daca electronul se gaseste pe orbita i.
2. Numarul de impulsuri care se produc n intervalul (0, t) la o centrala telefonica este
o variabila aleatoare pe care o notam X(t).
3. Daca miscarea unei particule depinde de circumstante ntamplatoare, de exemplu
de ciocnirea cu alte particule, atunci n fiecare moment t, viteza V (t) sau pozitia X(t)
sunt variabile aleatoare.
4. Un semnal aleator este o unda electrica, sonora etc. ce traverseaza un anumit mediu
la un moment dat si pe care l notam cu X(t). Un semnal poate fi conditional determinist
daca se cunoaste expresia analitica a undei; de exemplu X(t) = sin(t + ) , unde este
o variabila aleatoare.
In fiecare din exemplele precedente se pune n evidenta o familie de variabile aleatoare
{X(t)}, cu t T, T IR, care defineste un proces stochastic.
5.1
Lanturi Markov
192
Procese stochastice
(5.1)
(5.2)
Relatia (5.2) corespunde situatiei n care schimbarea starilor nu se face la momente echidistante de timp.
Propozitia 5.1.1 Dac
a {Xn }, n IN este un lant Markov, are loc urmatoarea formula
de calcul:
P ({Xn = in , . . . , X0 = i0 }) = pi0
n
Y
(5.3)
t=1
Procese stochastice
193
Vom nota aceste probabilitati cu pit1 ,it . Pentru un lant Markov omogen, relatia (5.3)
devine
n
Y
P ({Xt = it , . . . X0 = i0 }) = pi0
pit1 ,it .
(5.4)
t=1
(5.5)
i, j S
pX
ij > 0,
.
pij = 1, i S
jS
Demonstrat[
ie. Prima afirmatie este evidenta. Pentru a doua sa observam ca evenimentul
sigur E =
{Xt+1 = j} si ca
jS
1=P
{Xt+1 = j} |{Xt = i}
jS
jS
pij .
jS
pij = 1,
jS
194
Procese stochastice
P =
0, 4 0, 6
0, 5 0, 5
.
Exemplul 5.1.2 Intr-o urna sunt a bile albe si b bile negre. Se efectueaza un sir infinit
de extrageri astfel ncat dupa fiecare extragere se pun napoi doua bile de aceeasi culoare
cu cea extrasa. Fie Xk numarul de bile la momentul k. Definim probabilitatile de trecere
, daca j = i,
a+b+k
i
P ({Xk+1 = j}|{Xk = i}) =
,
daca j = i + 1,
a+b+k
0,
daca j 6= i, i + 1.
Numarul de bile din urna la momentul k+1 depinde numai de numarul de bile din urna
aflate la momentul k, nefiind necesar ntreg istoricul. Probabilitatile de trecere depind
efectiv de momentul n care s-a desfasurat extractia, deci e un lant Markov neomogen.
Dat un lant Markov omogen, ne propunem sa determinam probabilitatile
P ({Xn+m = j}|{Xm = i}), n IN ,
(n)
Procese stochastice
195
(5.7)
P
({X
n+m = k} {Xm = i})
kS
P ({Xn+m = k} {Xm = i})
=
P ({Xm = i})
kS
kS
kS
X
jS
pj (n 1)pji .
(5.8)
196
Procese stochastice
Intr-adevar, la momentul n
pi (n) = P ({Xn = i}) = P
{Xn = i}
!!
{Xn1 = j}
jS
=P
!
({Xn = i} {Xn1 = j})
jS
jS
pj (n 1)pji .
jS
Exemplul 5.1.3 Un calculator poate fi privit ca un sistem S care se poate afla ntr-una
din urmatoarele stari:
S1 calculatorul functioneaza normal;
S2 calculatorul prezinta unele dereglari, dar poate executa programe;
S3 calculatorul prezinta unele dereglari si rezolva un numar limitat de probleme;
S4 calculatorul nu functioneaza.
La momentul initial calculatorul functioneaza, deci se afla n starea S1 cu probabilitatea 1 si se poate presupune ca el trece n celelalte stari cu probabilitatile indicate de
urmatoarea schema
Deci matricea de trecere este
0, 3 0, 4 0, 1 0, 2
0 0, 2 0, 5 0, 3
.
P =
0
0 0, 4 0, 6
0
0
0
1
pij
X
kS
(n) (m)
pik pkj .
(5.9)
Procese stochastice
197
X
lS
kS
(n)
pil
X
kS
(m) (1)
plk pkj =
lS
(n) (m+1)
pil plj
lS
P ({X1 = i})P ({X5 = j}|{X1 = i})P ({X8 = k}|{X5 = j})P ({X10 = l}|{X8 = k})
=
P ({X1 = i})
(4) (3) (2)
198
Procese stochastice
1 0 0 ... 0 0 0
q
0 p ... 0 0 0
P =
... ... ... ... ... ... ... .
0 0 0 ... q
0 p
0 0 0 ... 0 0 1
b. cu bariere reflectante; daca particula ajunge
respectiv l 1. Matricea de trecere este
0 1 0 ... 0
q
0 p ... 0
0
0
...
p
0
k
pk
+
,
k=0
pk = 1
k=0
si ca exista un loc de asteptare pentru cel mult m clienti, numar n care se include si
clientul care este servit. Clientii care ajung n statie si gasesc m clienti, pleaca fara a fi
serviti.
Fie Yn numarul de clienti prezenti la momentul n, n care se include si clientul care este
servit. Yn este un lant Markov cu starile 0, 1, . . . m. Yn+1 este egal cu numarul clientilor
la momentul n, mai putin cel servit la momentul n (daca exista) plus numarul clientilor
care sosesc n intervalul (n, n + 1), daca rezultatul nu depaseste m si este egal cu m n caz
contrar. Deci
1 6 Yn 6 m, 0 6 Xn 6 m + 1 Yn ,
Yn 1 + Xn , daca
Xn ,
daca
Yn = 0,
0 6 Xn 6 m 1,
Yn+1 =
m,
n rest.
Procese stochastice
199
daca
i 1 6 j 6 m 1,
P ({Xn = j + 1 i}) = pji+1 ,
P ({Xn > m + 1 i}) = pm+1i , daca
j = m,
=
0,
n rest.
Rezulta matricea
p0 p1 p2 . . . pm1 pm
p0 p1 p2 . . . pm1 pm
0 p0 p1 . . . pm2 pm1
.
.. .. .. ..
..
..
. . . .
.
.
0 0 0 . . . p1
p2
0 0 0 . . . p0
p1
Exemplul 5.1.7 Un model din teoria stocurilor. [11]
O marfa este stocata pentru a putea satisface cererile ntamplatoare. Completarea
eventuala a stocului se face la momentele 0, 1, 2, . . ., iar cererea n intervalul (n, n + 1)
este o variabila aleatoare Xn , cu repartitia
X
k
Xn :
,
pk = 1.
pk k=0
k=0
pM
pM
.
.
.
pM
pm+1
pm+2
.
..
pM
pM m1 pM m2 . . . p0
pM m1 pM m2 . . . p0
..
..
..
..
.
.
.
.
pM m1 pM m2 . . . p0
.
p0
0
... 0
p1
p0
... 0
..
..
..
..
.
.
.
.
pM m1 pM m2 . . . p0
200
Procese stochastice
(Matricea are primele m linii identice). S-a folosit notatia pl = pl + pl+1 + . . . , daca
m < l 6 M.
Dat un lant Markov omogen ne intereseaza comportarea la limita a probabilitatilor de
(n)
trecere peste n pasi pij .
(n)
Definitia 5.1.5 Daca pentru orice i, j S sirul pij n IN este convergent independent
de i, lantul Xn se numeste ergodic.
Teorema 5.1.1 (Teorema de ergodicitate). Fie (Xn ), n IN , un lant Markov cu matricea de trecere P = (pij ), i, j S. Urmatoarele afirmatii sunt echivalente:
(s)
1. exista s IN si o stare j0 S astfel nc
at pij0 > 0 i S;
(n)
Demonstratie.
2. = 1. Afirmatia este imediata; observam ca
X
X (n)
p
=
lim
pij = 1.
j
n
jS
jS
pij0 > 0, i S.
1. = 2. Pentru orice j S sa consideram sirurile
(n)
pj
(n)
Aratam ca pj
(n)
(n)
= max pij ,
iS
iS
(5.10)
pij
(1) (n)
(n)
pil plj 6 pj
lS
(1)
(n)
pil = pj
, i S,
lS
deci
(n+1)
pj
(n)
6 pj .
> p(n)
> 0) ele sunt convergente; sa
j
(n)
(n)
p
j = lim pj , pj = lim pj .
n
Procese stochastice
201
(n)
n i,lS
rezulta
(n)
(n)
pij plj =
X (s)
X
(s) (ns)
(ns)
(pir plr )prj
=
uil (r)prj ,
rS
rS
(s)
pir
(s)
plr .
pentru care uil (r) > 0 si cu S multimea acelor stari din S pentru care uil (r) < 0. Avem
evident S = S + S . Deoarece
X (s) X (s)
pir =
plr = 1,
rS
rezulta ca
uil (r) =
rS
deci
rS
uil (r) +
rS +
uil (r) = 0,
rS
uil =
rS +
|uil (r)|.
rS
(5.11)
rS +
rS +
61
(s)
rS +
(s)
rS +
(s)
rS +
(s)
rS +
rS +
rS
202
Procese stochastice
6
(ns)
uil (r)pj
rS +
(ns)
uil (r)p(ns)
6 u(pj
j
p(ns)
).
j
rS
(ns)
pj p(n)
6 u(pj
j
p(ns)
).
j
iar
n
lim u[ s ] = 0.
De aici rezulta ca
(n)
pj = pj = lim pij
n
0 21 12
P = 2 0 2 .
1
1
0
2
2
Observam ca
P =
1
2
1
4
1
4
1
4
1
2
1
4
1
4
1
4
1
2
satisface conditia 1 din teorema precedenta, pe care o vom numi conditie de ergodicitate.
Fiind matrice simetrica ea admite valorile proprii reale 1 = 1, 2,3 = 12 si forma
diagonala
1 0
0
D = 0 21 0 .
0 0 21
Fie S matricea ortogonala de schimbare de baza, care are forma
1
1
1
S=
1
3
12
1
6
1
3
2
6
Procese stochastice
203
n
lim P =
1
3
1
3
1
3
1
3
1
3
1
3
1
3
.
(1 )n
+
+
.
, +
. Deci dupa un numar foarte mare de pasi
n + probabilitatile de stare sunt +
probabilitatile nu depind de starea initiala.
Daca analizam mersul la ntamplare cu bariere absorbante, pentru l = 2, gasim
1 0 0
P = q 0 p
0 0 1
iar P n = P, n IN . Observam ca nu este n deplinita conditia de ergodicitate; se
poate totusi aprecia ca la un numar foarte mare de pasi particula ramane imobila, fiind
absorbita de bariere.
204
5.2
Procese stochastice
Procese Poisson.
In unele situatii practice, facand observatii asupra unui eveniment aleator ne poate
interesa de cate ori s-a produs acesta ntr-un interval de timp ; de exemplu numarul de
impulsuri care apar la o centrala telefonica ntr-un interval de timp, numarul de clienti
care solicita un produs ntr-o statie de deservire, numarul de vehicule care traverseaza
un pod, etc. Pentru orice t IR, notam cu X(t) numarul de produceri ale evenimentului
n intervalul (0, t); evident variabila aleatoare X(t) ia valori n IN . Facem urmatoarele
presupuneri:
1. observatiile ncep la momentul initial t = 0, deci X(0) = 0;
2. pentru orice momente de timp 0 < t1 < t2 < t3 < t4 , variabilele aleatoare X(t2 )
X(t1 ) si X(t4 ) X(t3 ) sunt independente (proces cu cresteri independente);
3. repartitia variabilei aleatoare X(t + s) X(t), t > 0, s > 0, depinde doar de s,
lungimea intervalului si nu de t;
4. probabilitatea ca un singur eveniment sa se produca n intervalul (t, t + t), pentru
t suficient de mic este aproximativ proportionala cu lungimea intervalului, deci de forma
t + o(t). Probabilitatea ca mai mult de un eveniment sa se produca n intervalul
(t, t + t) este o(t).(Prin o(t)s-a notat o cantitate ce depinde doar de t ce satisface
o(t)
lim
= 0.) Notam pk (t) = P ({X(t) = k}). Fie t suficient de mic; la momentul
t0 t
t + t, X(t) ia valoarea k n urmatoarele doua moduri:
a. X(t) = k si nici un eveniment nu se produce n intervalul (t, t + t);
b. X(t) = k 1 si un eveniment se produce n (t, t + t).
Deoarece din ipoteza 2, variabilele aleatoare X(t + t) X(t) si X(t) sunt independente, probabilitatea evenimentului dat de a este pk (t)(1 t), iar cea a evenimentului
dat de b este pk1 (t)t si cum evenimentele de la a si b sunt independente
pk (t + t) = pk (t)(1 t) + pk1 (t)t.
Relatia se scrie sub forma echivalenta
pk (t + t) pk (t)
= pk (t) + pk1 (t) k = 1, 2, 3 . . .
t
Cand t 0, gasim ecuatia diferentiala
p0k (t) = pk (t) + pk1 (t).
(5.12)
Procese stochastice
205
2 t
et tet (t)2!e
...
.
P (t) =
t
t
0
e
te
...
...
...
...
...
Intervalul aleator dintre dou
a evenimente succesive ntr-un proces
Poisson.
Daca n cadrul unui proces Poisson un eveniment se produce la momentul t, iar
urmatorul la momentul t + , este o variabila aleatoare. Sa-i determinam densitatea de
probabilitate. Pentru aceasta determinam mai ntai functia de repartitie. Avem
P ({ > x}) = ex .
{ > x} exprima faptul ca nici un eveniment nu are loc n intervalul (t, t+x). Deci functia
de repartitie este 1 ex , x > 0, iar prin derivare gasim f (x) = ex , x > 0, care
este repartitia exponentiala. Aceasta densitate caracterizeaza intervalul aleator de timp
dintre doua produceri succesive de evenimente ale unui proces Poisson. Sa observam ca
P ({ > t + t0 }|{ > t0 }) =
Z
P ({ > t0 + t})
=
P ({ > t0 })
es ds
+t
Zt0
= et = P ({ > t}),
es ds
t0
ceea ce semnifica faptul ca procesul Poisson este un proces Markov. Observam ca probabilitatea ca n intervalul (0, t) sa se produca exact un eveniment este tet , deoarece
este urmata o lege Poisson cu parametrul t.
206
Procese stochastice
2 15
10 3 10
e 4 15
e 4
4
4
3!
2!
1
, 0 6 s 6 t,
t
X
(t)k
k=n
k!
et .
Procese stochastice
207
X
k=n
(t)k1 (t)k
k
k!
k!
et =
(t)n1 t
e
(n 1)!
= Cnk
k
t
nk
.
t
+
X
(t)2j
j=0
(2j)!
et =
et t
(e + et ) =
2
1
= (1 + e2t ).
2
1
P ({T (t) = 1}|{T (0) = 1}) = P (B) = (1 e2t ).
2
1
Deoarece P ({T (0) = 1}) = P ({T (0) = 1}) = 2 , rezulta dupa nlocuiri ca evenimentele
{T (t) = 1} au probabilitatea 12 .
208
Procese stochastice
Procese de nastere-moarte.
Vom modela n continuare urmatoarea situatie practica ce apare n teoria asteptarii.
Consideram un sistem format dintr-un fir de asteptare formata din n clienti si o
persoana care serveste. Spunem ca sistemul se afla n starea Sn daca sunt n clienti la
coada, inclusiv cel servit (daca exista). Din starea Sn sunt posibile doar doua tranzitii:
- la starea Sn1 daca un client a fost servit si paraseste coada;
- la starea Sn+1 daca un client este nca servit n timp ce un nou client se aseaza la
coada.
Consideram un proces care descrie comportarea cozii n timp. La momentul t, daca
sistemul precedent se afla n starea Sn , vom nota X(t) = n. Se obtine astfel un proces
Markov. Facem urmatoarele ipoteze:
1. Daca sistemul este n starea Sn , poate realiza tranzitii la Sn1 sau la Sn+1 , n > 1
(de la S0 este posibila doar S1 ).
2. Probabilitatea unei tranzitii Sn Sn+1 ntr-un interval scurt t este n t parametrul n se numeste parametru de nasteresi facem ipoteza ca depinde de starea
Sn .
3. Probabilitatea unei tranzitii Sn Sn1 ntr-un interval de lungime t este n t
parametru n se numeste parametru de moarte.
Probabilitatea ca n intervalul (t, t + t) sa aiba loc mai mult de o tranzitie este 0.
Sistemul se afla n starea Sn la momentul t + t n urmatoarele situatii:
a. La momentul t se afla n starea Sn si nici o tranzitie nu are loc n intervalul (t, t+t)
cu probabilitatea (1 n t)(1 n t), care poate fi aproximata cu 1 n t n t.
b. Fiind n starea Sn1 la momentul t are loc o tranzitie la starea Sn n intervalul
(t, t + t) cu probabilitatea n1 t.
c. La momentul t sistemul se afla n starea Sn+1 si o tranzitie la starea Sn are loc n
(t, t + t) cu probabilitatea n+1 t.
Notam Pn (t) = P ({ X(t) se afla n starea Sn }) si facem ipoteza ca ca Pn (t) este o
functie derivabila cu derivata continua. Atunci
Pn (t + t) = Pn (t)(1 n t n t) + n1 tPn1 (t) + n+1 tPn+1 (t), n > 1,
P0 (t + t) = P0 (t)(1 0 t) + 1 tP1 (t).
Impartind prin t
Pn (t + t) Pn (t)
= (n + n )Pn (t) + n1 Pn1 (t) + n+1 Pn+1 (t), n > 1,
t
P0 (t + t) P0
t = 0 P0 (t) + 1 P1 (t).
t
Daca t 0, obtinem
Pn0 (t) = (n + n )Pn (t) + n1 Pn1 (t) + n+1 Pn+1 (t),
P00 (t) = 0 P0 (t) + 1 P1 (t).
n > 1,
Procese stochastice
209
Vom da solutii pentru aceste ecuatii diferentiale n cazul n care Pn (t) nu depinde de t; n
acest caz sistemul precedent devine
(n + n )Pn = n1 Pn1 + n+1 Pn+1 , n > 1,
0 P0 = 1 P1 ,
si se rezolva prin recurenta. Se obtine solutia
0
P0
1
0 1
=
P0
1 2
P1 =
P2
.
..
.
0 1 . . . n1
P0
Pn =
1 2 . . . n
Deoarece sistemul trebuie sa se afle ntr-o stare, suma probabilitatilor precedente trebuie
sa fie 1, deci
0 0 1
P0 1 +
+
+ . . . = 1.
1
1 2
Exemplul 5.2.5 Intr-o statie sosesc clienti dupa legea Poisson cu parametrul , iar
timpul de servire este o lege exponentiala cu parametrul pozitiv , 0 < < . Daca este
aglomeratie se formeaza o coada, iar starea sistemului la momentul X(t) este un proces
de nastere -moarte cu parametrii n = si n = . Particularizand ecuatiile precedente
si notand = gasim
P1 = P0
2
P0 = 2 P0
P2 =
.
..
.
n
Pn =
P0 = n P0
Punem conditia
1
= 1, < 1.
1
De aici rezulta P0 = 1 . Deducem Pn = (1 )n , pentru n = 0, 1, . . ., care este repartitia geometrica.Sa particularizam aceasta situatie. Pentru a evita aglomeratia dintr-o
statie de deservire, clientii asezati la coada ar trebui sa nu depaseasca numarul 5, cu
probabilitatea 0,99. Sosirile au loc dupa o lege Poisson cu parametrul = 1, 5 clienti pe
minut. Daca deservirea se face dupa o lege exponentiala, cat de repede trebuiesc acestia
serviti ? Sa determinam deci .
Probabilitatea ca cel putin 5 clienti sa fie la coada este
P0 (1 + + 2 + . . .) = P0
p=
X
n=5
(1 )n = 5 ; =
210
Procese stochastice
5.3
In unele situatii starile precedente ale unui sistem exercita un puternic efect asupra
starilor viitoare. In general daca procesele au fost considerate fara postactiune (procese
Markov), se pot face unele corectari n alegerea starilor. De exemplu, daca consideram
o schimbare n pozitia unei particule n procesul de difuzie, considerat ca proces fara
postactiune, aceasta nseamna ca se neglijeaza inertia particulei. Situatia se poate corecta
introducand n conceptul de stare si viteza particulei, alaturi de coordonatele pozitiei.
In cazul cel mai general Hincin a izolat o clasa importanta de procese stochastice cu
postactiune, numite procese stationare. Acestea se ntalnesc n fenomenele acustice, teoria
semnalelor etc.
Fie {X(t)}, t > 0, un proces stochastic.
Definitia 5.3.1 Numim functie de repartitie ndimensionala functia data prin formula
F (x1 , . . . , xn , t1 , . . . , tn ) = P ({X(t1 ) < x1 , . . . , X(tn ) < xn })
pentru orice t1 , . . . , tn , n IN .
Presupunem ca functia de repartitie n-dimensionala satisface urmatoarele doua conditii:
-conditia de simetrie
F (xi1 , . . . , xin , ti1 , . . . , tin ) = F (x1 , . . . , xn , t1 , . . . , tn ),
(5.13)
(5.14)
Procese stochastice
211
mX (t) = M [X(t)] =
xf (x, t)dx,
X (t1 , t2 ) = p
Exemplul 5.3.2 Fie X(t) = A cos 2t, unde A este o variabila aleatoare. Sa determinam
valorile caracteristice.
mX (t) = M [A cos 2t] = M [A] cos 2t;
RX (t1 , t2 ) = M [A cos 2t1 A cos 2t2 ] = M [A2 ] cos 2t1 cos 2t2 ;
CovX (t1 , t2 ) = RX (t1 , t2 ) mX (t1 )mX (t2 ) = (M [A2 ] M 2 [A]) cos 2t1 cos 2t2 =
= D2 [A] cos 2t1 cos 2t2 .
212
Procese stochastice
Procese multiple.
Doua procese X(t), Y (t) se numesc independente daca k, j si orice alegere t1 , . . . , tk si
t01 , . . . t0j ,
variabilele
aleatoare
multidimensionale
(X(t1 ), . . . , X(tk ))
si
0
0
(Y (t1 ), . . . Y (tj )) sunt independente. Corelatia ncrucisat
a RXY (t1 , t2 ) este definita prin
RXY (t1 , t2 ) = M [X(t1 )Y (t2 )].
Procesele X(t) si Y (t) se numesc ortogonale daca
RXY (t1 , t2 ) = 0, t1 , t2 .
Covarianta ncrucisat
a CovXY (t1 , t2 ) este definita prin
CovXY (t1 , t2 ) = M [(X(t1 ) mX (t1 ))(Y (t2 ) mY (t2 ))] = RXY (t1 , t2 ) mX (t1 )mY (t2 ).
Procesele se numesc necorelate daca
CovXY (t1 , t2 ) = 0, t1 , t2 .
Exemplul 5.3.3 Fie X(t) = cos(t + ) si Y (t) = sin(t + ) unde este o variabila
aleatoare repartizata uniform pe [, +]. Sa determinam covarianta ncrucisata. Aratam
ca media procesului X(t) este 0.
Z
1
mX (t) = M [cos(t + )] =
cos(t + x)dx = 0.
2
Analog rezulta ca media procesului Y (t) este 0.
RXY (t1 , t2 ) = M [cos(t1 + ) sin(t2 + )] =
1
1
1
= M [ sin((t1 t2 )) + sin((t1 + t2 ) + 2)] = sin((t1 t2 ))
2
2
2
deoarece M [sin((t1 + t2 ) + 2)] = 0.
Definitia 5.3.2 Procesul X(t) se numeste stationar n sens restrans dac
a t1 , . . . , tn
IR+ , n IN , u IR+ are loc
F (x1 , . . . xn , t1 + u, . . . , tn + u) = F (x1 , . . . , xn , t1 , . . . , tn ).
(5.15)
Procese stochastice
213
Definitia 5.3.3 Procesul X(t) este stationar n sens larg daca au loc conditiile 1-3.
Definitia 5.3.4 Numim functie de corelatie a unui proces stationar n sens larg coeficientul de corelatie al variabilelor aleatoare X(t) si X(t + u).
Deci functia de corelatie are expresia
R(u) =
214
Procese stochastice
Demonstratie. Sa presupunem mai ntai ca R(u) este o functie de corelatie pentru un proces
stationar continuu. Din proprietatea precedenta R(u) rezulta continua si marginita. Sa
aratam ca este si pozitiv definita. Pentru orice numere reale u1 , u2 , . . . , un din IR si
1 , . . . , n C unde n IN , are loc
!
n
n X
n
X
X
0 6 M | k X 2 (uk )| = M
i j X(ui )X(uj ) =
i=1 j=1
k=1
n X
n
X
R(ui uj )i j .
i=1 j=1
eiux dF (x),
R(u) =
unde F este o functie de repartitie. Deoarece R este o functie reala, rezulta afirmatia.
Reciproc, sa aratam ca daca
Z
R(u) =
cosux dF (x),
R(ti tj )ui uj
i=1 j=1
fn (u1 , . . . , un , t1 , . . . , tn ) = An e
n X
n
X
i=1 j=1
R(ti tj )ui uj
, An IR.
Se verifica usor ca functiile de repartitie asociate satisfac conditiile de simetrie si compatibilitate, deci definesc un proces stochastic, care rezulta stationar.
Procese stochastice
215
0,
1
,
f (x) =
2
1,
Avem atunci
x 6
< x 6 .
x>
Z
cos u =
n
X
bk Zk (t),
k=1
unde
n
X
b2k = 1, iar Zk (t) = Xk (t) cos k t+Yk sin k t, k IR. Xk (t), Yk (t) sunt preocese
k=1
ce satisfac
M [Xk ] = M [Yk ] = 0, D2 [Xk ] = D2 [Yk ] = 1, k = 1, n
M [Xi Xj ] = M [Yi Yj ] = 0, i 6= j, M [Xi Yj ] = 0, i, j = 1, n.
Calculand functia de corelatie, gasim
R(u) =
n
X
b2k cos k u,
k=1
de unde rezulta ca procesul este stationar, asociat functiei de repartitie F care are salturi
de marimea 21 b2k n punctele k .
In literatura de specialitate F se numeste spectru; daca F este functie de salturi, procesul
se numeste cu spectru discret. Slutsky a demonstrat ca orice proces cu spectru discret
este reprezentabil sub forma celui din exemplul precedent.
216
Procese stochastice
PROBLEME PROPUSE
P ({X1 = 0, X2 = 1}).
Solutie. X1 = 0, daca 0 6 X 6 12 , deci cu probabilitatea 12 . Iar P ({X1 = 0, X2 = 1})
este 14 , deoarece 14 6 X 6 12 .
Problema 4.4 Un calculator este inspectat la momentele t1 , t2 , t3 si se poate afla n
una din urmatoarele stari:
s1 functioneaza normal;
s2 are un numar neglijabil de erori, care nu impiedica calculatorul sa functioneze;
s3 are erori considerabile, dar rezolva limitat probleme;
s4 nu functioneaza.
La momentul initial calculatorul este n starea s1 iar matricea de tranzitie este
0, 5 0, 3 0, 2 0
0 0, 4 0, 4 0, 2
.
P =
0
0 0, 3 0, 7
0
0
0
1
Asociati diagrama si aflati probabilitatile de stare dupa fiecare din cele trei inspectii.
Solutie. Probabilitatile de stare initiala sunt (1, 0, 0, 0), deoarece initial calculatorul
functioneaza. Apoi
p1 (1) = 0, 5, p2 (1) = 0, 3, p3 (1) = 0, 2, p4 (1) = 0
p1 (2) = 0, 25, p2 (2) = 0, 27, p3 (2) = 0, 28, p4 (2) = 0, 2
p1 (3) = 0, 125, p2 (3) = 0, 183, p3 (3) = 0, 242, p4 (3) = 0, 450.
Procese stochastice
217
Cov
=
R X+(t11 , t2 ) = RX (t1 , t2 ) = M [cos(t1 + ) cos(t2 + )]
1
1
(cos((t
t
))
+
cos((t
+
t
)
+
2x))
dx
=
cos((t
1
2
1
2
1 t2 )).
2
2
2
Problema 4.7 Fie Xn un lant de variabile normale independente, identic repartizate,
cu media m si dispersia 2 . Determinati matricea de covarianta la momentele t1 , . . . , tk
si densitatea de probabilitate.
1 i=j
2
Solutie CX (ti , tj ) = ij unde ij =
0 i 6= j
f (x1 , . . . , xk , X1 , . . . , Xk ) = fX (x1 )fX (x2 ) . . . fX (xk ) =
k
X
i=1
1
e
(2 2 )k/2
(xi m)2
2 2
Problema 4.8 Un proces Y (t) consta dintr-un semnal dorit X(t) la care se adauga
zgomotul N (t), deci Y (t) = X(t) + N (t). Gasiti corelatia ncrucisata dintre cele doua
procese, presupunnd ca X(t), N (t) sunt independente.
Solutie Folosind independenta variabilelor X(t) si N (t), gasim
RXY (t1 , t2 ) = M [X(t1 )Y (t2 )] = M [X(t1 )(X(t2 ) + N (t2 ))] =
= M [X(t1 )X(t2 )] + M [X(t1 )N (t2 )] =
= RXY (t1 , t2 ) + M [X(t1 )]M [N (t2 )] = RXY (t1 , t2 ) + mX (t1 )mN (t2 ).
Problema 4.9 In ziua 0 exista 2 becuri noi de rezerva. Probabilitatea de a schimba
un bec este p, iar probabilitatea de a nu schimba este q = 1 p. Fie Yn numarul de becuri
necesar la sfarsitul zilei n. Determinati matricea de tranzitie dupa un pas si dupa n pasi,
probabilitatile de stare la momentul n si comportarea lor la limita.
Solutie Starile procesului sunt 2,1,0, iar diagrama corespunzatoare este
Matricea de tranzitie cu un pas este
1
0
0
0
P = p 1p
0
p
1p
iar probabilitatile de stare la momentul initial sunt 0, 0, 1. Dupa n pasi
218
Index
1
0
0
1 qn
qn
0 .
Pn =
n
n1
n1
1 q npq
npq
qn
Trecnd la limita pe fiecare element al matricei gasim matricea
1 0 0
1 0 0 .
1 0 0
Probabilitatile de stare la momentul n sunt date de produsul
1
0
0
1 qn
qn
0
(0 0 1)
n
n1
n1
1 q npq
npq
qn
iar la limita se obtine (1 0 0). Interpretarea evidenta este ca dupa un numar foarte mare
de pasi procesul devine stationar si raman 0 becuri de rezerva.
Index
Index
matricea de covarianta, 121
repartitia Fisher , 148
coeficient de corelatie, 119
corelatia variabilelor, 119
densitate de probabilitate, 91
densitate de probabilitate n-dimensionala,
normala normata, 93
100
densitate marginala de probabilitate, 101
q-cvantile, 88
densitatea de probabilitate conditionata, 97
Repartitia Beta, 150
formula de inversiune, 125
repartitia Erlang, 149
formula lui Bayes, 98, 113
repartitia exponentiala, 152
formula probabilitatii totale, 113
repartitia lognormala, 104
formula probabilitatii totale, 98
repartitia normala, 93
formulele integrale ale mediei totale, 121
repartitia normala n-dimensionala, 106
functia caracteristica a repartitiei Gama, 149 repartitia Rayleigh, 108
functia caracteristica a repartitiei normale , repartitia Snedecor, 147
132
repartitia Student , 142
functia de repartitie, 85
repartitia uniforma, 92
functie caracteristica, 123
repartitia uniforma n-dimensionala, 102
functie de fiabilitate, 150
repartitia Weibull, 152
functie de repartitie n dimensionala, 99
functie de repartitie conditionata, 89
teorema Bochner-Hincin, 129
functie marginala de repartitie, 101
teorema lui Bochner, 128
functie pozitiv definita, 129
teorema lui Cochran, 141
functiei lui Laplace, 94
variabila aleatoare, 83
legare n paralel, 154
variabila aleatoare n-dimensionala, 99
legare n serie, 153
variabila aleatoare continua, 88
variabile aleatoare independente, 85
media, 114
variabile necorelate, 119
media conditionata, 121
mediana, 89
medii conditionate, 121
modul, 115
moment centrat de ordin k, 116
moment pentru variabila aleatoare multidimensionala, 120
219